בעידן שבו הבנת הקשרים סיבתיים היא המפתח להחלטות עסקיות חכמות, חוקרים מציגים סוכן מבוסס מודל שפה גדול (LLM) שמחלץ באופן אוטונומי מפות קוגניטיביות מטושטשות עם משוב סיבתי (FCMs) מטקסט גולמי. השיטה הייחודית משלבת אוטונומיה חלקית של ה-LLM עם דינמיקה של מערכת FCM, שמנחה את הסוכן לאסוף ולעבד טקסט רלוונטי. התהליך הדו-כיווני הזה מאפשר למפת ה-FCM להתפתח בעצמה, תוך שמירה על 'רצועה אגנטית' שמבטיחה שליטה.
הסוכן פועל בשלושה שלבים מדויקים: ראשית, זיהוי שמות עצם ומשפטי שמות עצם מרכזיים מהטקסט; שנית, סינון לצמתי מושגים של FCM; שלישית, חילוץ או הסקת קשתות סיבתיות מטושטשות בין הצמתים. הוראות מערכת מותאמות מובילות את ה-LLM בכל שלב, והופכות את התהליך לסדור ומדויק. לפי הדיווח, המערכת מגיעה למצבי שיווי משקל דומים לאלו שנוצרו על ידי בני אדם.
בבדיקה על מאמר עדכני של הנרי קיסינג'ר ושותפיו על הבטחת ה-AI, יצר הסוכן FCMs שהתכנסו לאותם מחזורי מגבלה ושיווי משקל כמו הגרסאות האנושיות, למרות הבדלים במספר הצמתים והקשתות. בנוסף, FCM משולב שנוצר משני סוכנים – Gemini ו-ChatGPT – ספג את שיווי המשקל של המרכיב הדומיננטי ויצר שיווים חדשים שמתקרבים יותר למערכת הסיבתית האמיתית.
המשמעות העסקית של השיטה עצומה: בעלי עסקים ישראלים יכולים כעת להפיק במהירות מפות סיבתיות מניתוח דוחות, מאמרים או נתונים טקסטואליים, ולזהות הזדמנויות וסיכונים נסתרים. בהשוואה לשיטות מסורתיות, ה-LLM מציע מהירות וגמישות גבוהות יותר, במיוחד בתחומי AI ואוטומציה שבהם ניתוח סיבתי הוא קריטי.
הטכנולוגיה הזו פותחת דלת לאוטונומיה מתקדמת יותר ב-AI, אך דורשת אימות מתמיד. מנהלים צריכים לשקול איך לשלב כלים כאלו באסטרטגיות שלהם – האם תשתמשו בסוכני LLM לחילוץ תובנות סיבתיות היום?