בעידן שבו דגמי שפה גדולים (LLM) כובשים כל תחום, משתמשים נוטים להסתמך עליהם יתר על המידה – אפילו במשימות בסיסיות כמו חישוב אריתמטי פשוט. למה? כי הם רואים את המודלים כותבים שירים ומתמודדים עם שאלות מורכבות, ומניחים בטעות שהם מושלמים בכל. מחקר ניתוח חדש, שפורסם ב-arXiv, חוקר מדוע גישות קודמות להפחתת הסתמכות יתר נכשלו, ומגלה דרכים לשפר אותן משמעותית. המחקר מדגיש כי לימוד דפוסי כשל של דגמי שפה גדולים יכול להיות כלי רב עוצמה.
המחקר בודק תחילה אם דפוסי הכשל קיימים כלל. החוקרים קיבצו דוגמאות משני מערכי נתונים לפי תוויות מטא, ובדקו את ביצועי ה-LLM בכל קבוצה. הם הגדירו קריטריונים לזיהוי קבוצות גדולות שבהן המודל נכשל בתדירות גבוהה. התוצאות מראות שכאלה קבוצות קיימות, ותוויות המטא שלהן מהוות דפוסי כשל שניתן ללמד את המשתמשים. לפי הדיווח, דפוסים אלה אכן זמינים להוראה, מה שסותר את ההנחה שהבעיה היא בהיעדרם.
לאחר מכן, המחקר בוחן אם שיטות מבוססות פרומפטינג או עיבודי embedding מצליחות לזהות את דפוסי הכשל הללו. התוצאות מעורבות בין השיטות, מה שמסביר מדוע הגישות הקודמות לא הצליחו באופן מלא. ללא יכולת אוטומטית טובה לזהות כשלים, המשתמשים לא יכולים ללמוד עליהם ולהפחית את הסתמכות היתר. המחקר מדווח על צורך בשיפור שיטות גילוי הכשלים.
החלק האחרון מתמקד במדד לבדיקת יעילות ההוראה. במקום מדד דיוק צוות אדם-AI, החוקרים מציעים לבחון את יכולתו של המשתמש לנבא מתי ה-LLM צפוי לטעות באמצעות דפוסי הכשל. מחקר משתמשים הראה השפעה חיובית עם מדד זה, בניגוד למדדים קודמים. לפי הממצאים, לימוד דפוסי כשל יכול להצליח אם משתמשים בכלים הנכונים.
למנהלי עסקים ישראליים, הממצאים רלוונטיים במיוחד. שילוב LLM בעסקים דורש הבנה של מגבלותיהם כדי למנוע טעויות יקרות. השיפור בשיטות זיהוי כשלים יכול להגביר את האמון בשימוש בכלים אלה. כיצד תוכלו ליישם זאת? בדקו את דפוסי הכשל הספציפיים למודלים שלכם והכשירו את הצוותים.