בעידן שבו סוכני AI מבוססי מודלי שפה גדולים (LLM) מציגים יכולות מרשימות בהיגיון צעד אחר צעד על אופקים קצרים, הם נכשלים לעיתים קרובות לשמור על התנהגות עקבית בתכנון ארוך טווח. מחקר חדש שפורסם ב-arXiv טוען כי הכשל הזה נובע מחוסר התאמה יסודי: היגיון צעד אחר צעד יוצר מדיניות חמדנית מקומית שמתאימה לאופקים קצרים אך נכשלת בתכנון ארוך טווח, שבו פעולות מוקדמות חייבות לקחת בחשבון השלכות מאוחרות.
החוקרים ניתחו סוכני LLM בסביבות דטרמיניסטיות מובנות לחלוטין עם מעברי מצב ברורים ואותות הערכה. הניתוח חשף מצב כשל מרכזי במדיניות מבוססת היגיון: בחירות אופטימליות מקומיות הנגזרות מציון צעד אחר צעד מובילות להתחייבויות מוקדמות קצרות רואי שמתעצמות באופן שיטתי לאורך זמן ונקשות להתאוששות מהן. לפי הדיווח, מדיניות כזו גורמת לסוכנים להיתקע בהחלטות ראשוניות גרועות.
כדי להתמודד עם הבעיה, החוקרים מציגים את FLARE (Future-aware Lookahead with Reward Estimation) – מימוש מינימלי של תכנון מודע לעתיד שמאכף מבט קדימה מפורש, הפצת ערך והתחייבות מוגבלת במודל יחיד. FLARE מאפשר לתוצאות עתידיות להשפיע על החלטות מוקדמות, ובכך משפר את התנהגות התכנון ברמת גבוהה יותר.
במבחנים מרובים, מסגרות סוכנים וגרעיני LLM שונים, FLARE שיפר באופן עקבי את ביצועי המשימות ואת ההתנהגות ברמת התכנון. לדוגמה, LLaMA-8B עם FLARE הצליחה לעיתים קרובות לעלות על GPT-4o עם היגיון צעד אחר צעד סטנדרטי. התוצאות מדגישות הבחנה ברורה בין היגיון לתכנון.
המחקר מציע נקודת מבט תכנונית חדשה שיכולה לשנות את הדרך שבה מפתחים סוכני AI עסקיים. עבור מנהלי עסקים ישראלים, זה אומר שכדי ליישם אוטומציה ארוכת טווח, יש להתמקד בכלים כמו FLARE שמתחשבים בעתיד ולא רק בהווה. מה זה אומר לעתיד סוכני ה-AI?