בעידן שבו בינה מלאכותית משתלבת יותר ויותר במערכות רפואיות, מחקר חדש מעלה חשש: האם מודלי שפה גדולים (LLMs) סובלים מכשל תפקודי דמוי מחלת כבד שומני? חוקרים סימלו תרחישים קליניים אמיתיים ובדקו ארבעה דגמים מובילים: GPT-4o, Gemini 2.5, DeepSeek 3.1 ו-Qwen3-Max. התוצאות מצביעות על פגמים תפקודיים בכל הדגמים, עם קריסה תחת רעש קיצוני. המונח החדש 'AI-MASLD' מתאר את התופעה הזו, בדומה למחלת הכבד השומני המטבולי (MASLD).
המחקר השתמש ב-20 חיפושים רפואיים סטנדרטיים בחמש ממדים מרכזיים, כדי לדמות סביבת תקשורת קלינית אמיתית. תשובות הזהב נקבעו על ידי מומחים קליניים, והערכה בוצעה בסולם דירוג עיוור כפול על ידי שני רופאים עצמאיים. Qwen3-Max הציג את הביצועים הטובים ביותר, בעוד Gemini 2.5 היה הגרוע ביותר. כל הדגמים הראו פגמים ברמות שונות, והדגישו את הפער בין ידע תיאורטי ליישום קליני.
תחת תנאי רעש קיצוני, רוב הדגמים חוו קריסה תפקודית מוחלטת. במיוחד, GPT-4o טעה בשיפוט סיכון ריאתי חמור (PE) הנובע מפקקת ורידים עמוקה (DVT). המחקר הוא הראשון לאשר באופן אמפירי תכונות דמויות MASLD בעיבוד מידע קליני על ידי LLMs, ומציע את המושג החדשני AI-MASLD.
הממצאים מהווים אזהרה בטיחותית קריטית לשילוב AI בבריאות. למרות היכולות המרשימות, הדגמים הנוכחיים חייבים לשמש ככלי עזר תחת פיקוח מומחה אנושי. יש פער משמעותי בין הידע התיאורטי ליישום מעשי, במיוחד בסביבות רועשות כמו תלונות חולים.
למנהלי עסקים בתחום הבריאות בישראל, המחקר מדגיש את הצורך בהערכת סיכונים לפני הטמעת AI. כיצד תבטיחו שהכלי שלכם לא יוביל לטעויות חמורות? קראו את המחקר המלא והתייעצו עם מומחים.