בעידן שבו מודלי שפה גדולים (LLMs) מניעים החלטות עסקיות קריטיות, מחקר חדש חושף כשל משמעותי: כאשר מספקים להם עובדות מעודכנות שסותרות את הידע הפנימי שלהם, הביצועים דווקא יורדים. בנצ'מרק TRACK, שפורסם ב-arXiv, בוחן כיצד LLMs מפיצים ידע חדש דרך חשיבה רב-שלבית מול ידע סותר. התוצאות מדאיגות: עדכון עובדות מחמיר את הביצועים בהשוואה למצב ללא עדכונים, והתופעה מחמירה ככל שמספר העדכונים גדל. זהו אתגר אמיתי למנהלי טכנולוגיה ישראלים שמשלבים AI בעסקים.
בנצ'מרק TRACK מתמקד בשלושה תרחישים מורכבים: WIKI לעובדות אנציקלופדיות, CODE לקידוד ו-MATH למתמטיקה. בניגוד לבנצ'מרקים קיימים שמתמקדים רק בהיזכרות בעובדה בודדת, TRACK בודק השפעה על חשיבה רב-שלבית עם מספר סתירות ריאליסטיות. החוקרים מדגימים כיצד שיטות עדכון ידע בהקשר או עריכת ידע נכשלות בגלל קונפליקטים שלא מתוקנים בפרמטרים הפנימיים של המודל. זה יוצר תעמלת שגיאות שפוגעת בהיגיון כללי.
התוצאות מ-TRACK מראות כי סיפוק עובדות מעודכנות מחמיר את הביצועים בהשוואה למודל ללא עדכונים כלל. ככל שמספר העובדות המעודכנות גדל, הנזק גדל. הכשל נובע משני גורמים: חוסר יכולת לשלב את העובדות החדשות באופן נאמן, וגם היגיון פגום גם כאשר השילוב מצליח חלקית. החוקרים מדווחים על ביצועים נמוכים יותר בשלושת התרחישים, מה שמעיד על בעיה שורשית ביכולת ההפצה של LLMs.
לעסקים בישראל, שבהם AI משמש לניתוח נתונים פיננסיים או קידוד אוטומטי, TRACK מדגיש סיכונים. אם מודלים נכשלים בסתירות פשוטות, כיצד יתמודדו עם נתונים דינמיים משוק ההון או חוקים משתנים? בהשוואה לשיטות אחרות כמו RAG או fine-tuning, TRACK מראה צורך בשיפורים מהותיים. חברות כמו OpenAI ו-Google צריכות להתמודד עם אתגר זה כדי לשפר אמינות.
בנצ'מרק TRACK מציע כלי קפדני למדידת התקדמות עתידית בהפצת ידע סותר. מנהלי עסקים צריכים לבדוק מודלים על סטים כאלה לפני שילוב בייצור. מה תהיה ההשפעה על אסטרטגיות AI בישראל?