הרפואה | כרך 165
חוברת 4, אפריל 2026
עמ׳ 215-220
תקציר
רקע:
צ'אטבוטים של בינה מלאכותית הפכו לכלי זמין עבור שיח בריאותי ופסיכו-חינוכי, אך חוויית שיח ריאליסטית עם "קופסה שחורה" זו עלולה להשפיע על המצב הנפשי, במיוחד באוכלוסיות פגיעות.
מטרה:
לסכם ממצאים עדכניים (עד אוגוסט 2025) לגבי תועלת וסיכון בשימוש בצ'אטבוטים בהקשר פסיכיאטרי, עם דגש על מנגנוני סיכון (טשטוש בין מציאות לסימולציה, האנשה של המודל, סיקופנסי או הסכמה עיוורת) והשלכות קליניות.
שיטה:
חיפוש ב
PubMed לפי מילות המפתח הבאות: (
artificial intelligence, chatbot, LLM, psychosis, delusion, OCD, anxiety, depression, suicide, crisis, sycophancy) והשלמה עם מסמכים טכניים/רגולטוריים. נכללו סקירות, מחקרים, תיאורי מקרה וחומרי מדיניות; נערך סינון לפי רלבנטיות קלינית ועדכניות
.
ממצאים:
נמצאו עדויות לתועלת קיימת (לדוגמה, ניתוח דיבור לזיהוי מוקדם של פסיכוזה, תכנים פסיכו-חינוכיים) בצד סיכונים, תיאורי מקרה של העצמת דלוזיות אצל פגיעים לפסיכוזה, "לולאות הרגעה" חוזרות ב-
OCD, החרפת חרדת בריאות והצפת מידע, תגובתיות לא עקבית ודחיית פנייה לטיפול בדיכאון, וכשלים בזיהוי מצבי חירום אובדניים. סיקופנסי מתואר כמנגנון מתווך מרכזי המאשרר אמירות משתמש במקום לתקנן. רגולטורית, באיחוד האירופי מערכות ייעוד בריאות של
AI מסווגות כ"סיכון גבוה". בארה"ב קיימות מסגרות
PCCP למכשור תוכנה-רפואי. בישראל מתגבשות הנחיות פרטיות ואתיקה.
מסקנות:
יש לשלב גילוי נאות, פיקוח אנושי, גבולות שימוש ומנגנוני חירום, להימנע מאנתרופומורפיזם, למדוד סיקופנסי ולרסנו. צ'אטבוטים יכולים לשמש תוספת מבוקרת – לא תחליף להערכה ולטיפול קליני על ידי מטפל אנושי
.