בעידן שבו מודלי שפה גדולים (LLMs) משתלבים בקבלת החלטות עסקיות, חשש גובר מהטיות קוגניטיביות שהם משכפלים ואף מגבירים. מחקר חדש בוחן את התנהגותם של GPT-4, GPT-4o ו-LLaMA-8B בבעיית הניווסנדור הדינמית – מודל קלאסי לניהול מלאי בשרשרת אספקה. התוצאות מצביעות על סיכון משמעותי: הדגמים משמרים הטיות כמו הזמנת מלאי נמוכה/גבוהה מדי ומגבירים נטייה לרדיפת ביקוש, יותר מבני אדם.
בניסויים רב-סיבוביים, בדקו החוקרים חמש הטיות מוכרות בקבלת החלטות. כל הדגמים שכפלו את ההטיה הקלאסית של 'Too Low/Too High' בהזמנות, והגבירו משמעותית את התנהגות רדיפת הביקוש בהשוואה לבני אדם. ניתוח מעמיק חשף 'פרדוקס של אינטליגנציה': GPT-4 המתקדם ביותר הראה חוסר רציונליות גדול ביותר עקב חשיבה יתר, בעוד GPT-4o האופטימלי ליעילות התנהג כמעט אופטימלי.
הטיות אלה נמשכות אפילו כאשר מספקים לדגמים את הנוסחאות האופטימליות, מה שמעיד על כך שהן נובעות ממגבלות ארכיטקטוניות ולא מחוסר ידע. במקביל, GPT-4o הוכיח ביצועים טובים יותר בבעיות אופטימיזציה מסוימות, למרות מורכבותו הנמוכה יותר.
למנהלים העסקיים, המחקר מציע המלצות מעשיות: בחרו דגמי LLM לפי משימה ספציפית, שכן דגמים מותאמים ליעילות עלולים לעלות על מודלים מורכבים. חשוב מכך, הגברת ההטיות מחייבת פיקוח אנושי הדוק בהחלטות קריטיות כדי למנוע טעויות יקרות. בנוסף, עיצוב פרומפטים מובנים ומבוססי כללים יגביל את הנטיות ההיוריסטיות של הדגמים.
המסקנה ברורה: AI אינו תחליף מושלם לבני אדם בניהול סיכונים. מנהלי שרשרת אספקה בישראל, שמתמודדים עם תנודתיות גבוהה, צריכים לשלב כלים אלה בזהירות. כיצד תבטיחו שה-AI שלכם לא יוביל להחלטות שגויות?