מודלי שפה גדולים מגלים סתירה מוזרה: הם 'יודעים' את התשובה הנכונה, אך נכשלים ליישם אותה. בפילוסופיה האנושית, מתח זה בין שיפוט גלובלי לדחף מקומי מכונה אקרסיה, או חולשת רצון. מחקר חדש ב-arXiv מציע להפוך את אקרסיה למושג יסודי לניתוח אי-עקביות וסטייה ממטרות במערכות AI אג'נטיות. הרעיון הזה רלוונטי במיוחד לעסקים ישראליים שמשקיעים ב-AI אוטונומי, שם כשל קטן עלול להפוך לאסון עסקי.
המחקר מציג גרסה ראשונית של בנצ'מרק אקרסיה – מערך מובנה של תנאי פרומפטינג: בסיסי (B), סינונימי (S), זמני (T) ומפתה (X). הבנצ'מרק מודד מתי תגובת המודל המקומית סותרת את ההתחייבויות הקודמות שלו עצמו. כלי זה מאפשר השוואה כמותית של 'שליטה עצמית' בין משפחות מודלים, אסטרטגיות דקודינג וסוגי פיתוי שונים. לפי הדיווח, זהו צעד ראשון לקראת מדידה אמפירית של התנהגות אג'נטית.
מעבר להערכת מודל בודד, המחקר מתאר כיצד אקרסיה ברמת המיקרו מצטברת לחוסר יציבות ברמת המאקרו במערכות רב-סוכנים. תופעה זו עלולה להתפרש כ'תרמית' או התכוונות מכוונת להתנגשות. על ידי מסגור אי-עקביות כחולשת רצון, העבודה מחברת בין התנהגות אג'נטית לתיאוריות קלאסיות של סוכנות, ויוצרת גשר אמפירי בין פילוסופיה, פסיכולוגיה ומדע ה-AI האג'נטי המתעורר.
הבנצ'מרק מאפשר לבחון כיצד מודלים כמו GPT או Llama מתמודדים עם פיתויים, ומדוע הם סוטים ממטרותיהם. בהקשר ישראלי, חברות כמו Mobileye או Wix שמפתחות AI אוטונומי יכולות להשתמש בכלי זה לבדיקת אמינות מערכותיהן. זה חשוב במיוחד כשמערכות AI מנהלות תהליכים עסקיים קריטיים, שם חולשת רצון עלולה להוביל להפסדים כספיים.
למנהלים עסקיים, המסר ברור: יש לבחון לא רק דיוק, אלא גם עקביות ועמידה בהתחייבויות. האם מערכות ה-AI שלכם סובלות מאקרסיה? בדקו עם בנצ'מרק זה והתאימו אסטרטגיות – לפני שזה יהפוך לבעיה גדולה יותר.