בעולם שבו מודלי בינה מלאכותית מקבלים החלטות קריטיות בתחומים כמו רפואה, הבנה של ההחלטות הללו הופכת לבלתי נמנעת. חוקרים מפתחים את ContextualSHAP – חבילת פייתון שמרחיבה את SHAP, כלי מוביל להסברי בינה מלאכותית (XAI), בעזרת מודל שפה גדול כמו GPT של OpenAI. הכלי יוצר הסברים טקסטואליים מותאמים, שמתבססים על פרמטרים שהמשתמש מגדיר: כינויי תכונות, תיאורים ורקע נוסף. כך, ההסברים הופכים רלוונטיים ונגישים גם למשתמשים ללא רקע טכני.
SHAP, שמספק הסברים גלובליים ולוקליים על חשיבות תכונות במודלי למידת מכונה, מצטיין בוויזואליזציות. אולם, הוא חסר הסברים טקסטואליים בהקשר. ContextualSHAP פותרת זאת על ידי שילוב עם LLM, שמייצר טקסט מותאם להקשר המודל ולנקודת המבט של המשתמש. החבילה זמינה כקוד פתוח, ומאפשרת התאמה אישית בקלות.
במחקר ראשוני בתחום הבריאות, בדקו החוקרים את היעילות באמצעות סקרי משתמשים אמיתיים. התוצאות, המבוססות על סולמות ליקרט וראיונות המשך, מראות שההסברים הטקסטואליים נתפסו כמובנים יותר ומתאימים להקשר בהשוואה להסברים ויזואליים בלבד. זה מצביע על פוטנציאל לשיפור האמון במודלים.
שילוב כזה רלוונטי במיוחד לעסקים ישראליים בתחומי הבריאות והפיננסים, שבהם רגולציה דורשת שקיפות. ContextualSHAP יכולה לסייע בפיתוח מודלים אמינים יותר, תוך התאמה לשפה ולתרבות המקומית. בהשוואה לכלים אחרים, היא מציעה גמישות גבוהה יותר.
למנהלי עסקים, ההמלצה היא לבדוק את החבילה במודלים קיימים. האם זה ישנה את הדרך שבה אנו סומכים על AI? המחקר מזמין ניסויים נוספים להוכחת היתרונות.