קריסת מדרגות סיבתיות במודלי שפה גדולים
האם מודלי שפה גדולים (LLM) באמת מבינים את העולם, או שהם פשוט מנצחים את הבחנים בזכות קיצורי דרך מסוכנים? מחקר חדש מ-arXiv חושף בעיה קריטית: קריסת מדרגות סיבתיות, שבה אימון אוטורגרסיבי לא מבדיל בין קשר סטטיסטי להשפעה סיבתית אמיתית. התוצאה? מודלים שמצליחים במשימות אך קורסים בשינויי הפצה, מה שמאיים על יישומים עסקיים אמיתיים כמו אוטומציה ושירות לקוחות.
מה זה קריסת מדרגות סיבתיות?
קריסת מדרגות סיבתיות (Rung Collapse) היא תקלה מדויקת בלמידת מכונה שבה אימון אוטורגרסיבי מספק אות גרדיאנט חלש להבדיל בין הסתברות קשר P(Y|X) להסתברות התערבות P(Y|do(X)). כאשר למידה מבוססת תוצאות מחזקת תשובות נכונות שנובעות ממודלים סיבתיים שגויים, הסוכן נתקע בהיגיון פגום – תופעה שמכונה התבצרות אלעטורית (Aleatoric Entrenchment). המחקר מפרט זאת ככשל סיבתי בסיסי במודלי LLM מתקדמים.
פתרון חדש: מינימיזציה של חרטת אפיסטמית (ERM)
המחקר מציע Epistemic Regret Minimization (ERM), מטרה של תיקון אמונות שמענישה שגיאות בהיגיון סיבתי בלי קשר להצלחה במשימה. הארכיטקטורה כוללת שלוש שכבות עם תרומות מרכזיות: (1) משפט עיגון פיזי שמוכיח כי פעולות העומדות בעצמאות מפעיל מגשימות פעולות do תקפות, מחבר בין שפות פעולה וחשבון do; (2) ERM כמפעיל תיקון אמונות סיבתי העומד בפוסטולטות AGM, מונע התבצרות גם בהצלחות שגויות; (3) טקסונומיה של כשלים שמסווגת שגיאות חוזרות ומזריקת שומרים עצמאיים לתחום. סוכני AI יכולים להטמיע זאת לשיפור.
ניסויים על 1,360 תרחישי מלכודת סיבתיים בשישה LLM חזיתיים מראים כי קריסת מדרגות נמשכת גם במודלים משופרי היגיון (3.7% ב-GPT-5.2), מניפולביליות מראה קנה מידה הפוך שמודלים מתקדמים מתנגדים לתיקון גנרי, ו-ERM ממוקד מחזיר 53-59% משגיאות מושרשות שבהן משוב מבוסס תוצאות נכשל. ההוכחות כוללות התאוששות אסימפטוטית של ההפצה ההתערבותית האמיתית עם גבולות דגימה סופיים.
ההשלכות לעסקים בישראל
בעידן שבו עסקים ישראליים משלבים אוטומציה עסקית מבוססת AI, קריסת מדרגות סיבתיות עלולה להוביל להחלטות עסקיות שגויות – מניהול לידים ועד תחזיות מכירות. חברות הייטק בתל אביב ובחיפה מסתמכות על LLM לפיתוח מוצרים, אך אם המודלים לומדים קיצורים במקום סיבתיות אמיתית, הסיכון גדל בשווקים תנודתיים כמו ישראל. יישום ERM יכול לשפר אמינות, במיוחד בתעשיות כמו פינטק וסייבר שדורשות היגיון סיבתי מדויק. רגולציה מקומית כמו חוק הגנת הפרטיות מחייבת שקיפות, ופתרון זה תורם לכך.
מה זה אומר לעסק שלך
אם העסק שלכם משתמש במודלי LLM, בדקו אם הם עמידים בפני שינויי הפצה. ERM מציע דרך לתקן היגיון פנימי, מה שמגביר אמון ומפחית סיכונים. התחילו בניסויים פנימיים על תרחישים סיבתיים רלוונטיים.
האם תסמכו על AI שמצליח אך מסיבות שגויות? הגיע הזמן לשדרג להיגיון סיבתי אמיתי.