האם בינה מלאכותית יכולה לחקות את תהליכי החשיבה הרפלקטיביים של בני אדם? מחקר חדש שפורסם ב-arXiv בוחן את היכולת של מודל שפה גדול (LLM) לשחזר את המבנה הלשוני של מנטליזציה, בהתאם לפרמטרי טיפול מבוסס מנטליזציה (MBT). מנטליזציה משלבת רכיבים קוגניטיביים, אפקטיביים ובין-סובייקטיביים, והמחקר בודק אם LLM מצליח לייצר טקסטים בעלי מבנה דומה. זהו צעד ראשון בהבנת הקשר בין צורה לשונית לייצוג מנטלי.
המתודולוגיה כללה יצירת 50 דיאלוגים בין משתתפים אנושיים למודל LLM במצב סטנדרטי. חמישה פסיכיאטרים מיומנים ב-MBT, בעבודה עיוורת, העריכו את פרופילי המנטליזציה שנוצרו לאורך ארבעת צירי MBT. הם נתנו ציוני Likert להערכת עקביות הערכתית, עקביות ארגומנטטיבית ואיכות כללית. הסכמת בין-מדרגים נמדדה באמצעות ICC(3,1).
התוצאות מראות ציונים ממוצעים גבוהים (3.63-3.98) עם סטיות תקן בינוניות, המעידות על רמה גבוהה של עקביות מבנית בפרופילים שנוצרו. ערכי ICC (0.60-0.84) מצביעים על הסכמה בינונית-גבוהה עד גבוהה בין המדרגים. המודל הוכיח יציבות רבה יותר בצירים Implicit-Explicit וב-Self-Other, אך הציג מגבלות בשילוב מצבים פנימיים והקשרים חיצוניים. הפרופילים היו עקביים וניתנים לפרשנות קלינית, אך מאופיינים בניטרליות אפקטיבית.
משמעות הממצאים גדולה בתחום הפסיכותרפיה הדיגיטלית. בעוד LLM מצליח לשמר מבנה לשוני רפלקטיבי, חסרונו באינטגרציה אפקטיבית מעלה שאלות על שימושו ככלי טיפולי. בהשוואה לטיפולים מסורתיים, ה-LLM יכול לשמש ככלי עזר לייצור דיאלוגים ראשוניים, אך דורש השגחה אנושית. בישראל, שבה שוק הבריאות הנפשית צומח במהירות, טכנולוגיות כאלה עשויות לסייע במחסור בפסיכותרפיסטים.
המחקר מדגיש את הפוטנציאל של מודלי שפה גדולים ככלים מחקריים לבידוד מבנה מנטליזציה, אך גם את מגבלותיהם. עבור מנהלי עסקים ומפתחי AI, זהו אות לקידום פיתוח מודלים עם יכולות אפקטיביות משופרות. כיצד תשפיע היכולת הזו על עתיד הטיפול הנפשי?