בעידן שבו מודלי AI משמשים בתחומים קריטיים כמו רפואה ומשפט, טעויות עלולות לעלות במחיר כבד. מחקר חדש מ-arXiv מציג גישה חדשנית: 'ידיות הימנעות מפורשות' (Explicit Abstention Knobs) לשאילת שאלות על וידאו (Video QA). הרעיון המרכזי הוא ניבוי סלקטיבי – המערכת נמנעת מתשובה כשהיא לא בטוחה, במקום להסתכן בטעות. המחקר בודק האם הימנעות מבוססת ביטחון מספקת שליטה אמינה בשיעורי השגיאות, ומאשר זאת במבחנים עם Gemini 2.0 Flash על מאגר NExT-QA.
הממצא הראשון: סף ביטחון (confidence thresholding) מאפשר שליטה מכנית בתוך התפלגות הנתונים (in-distribution). על ידי שינוי סף ההימנעות ε, ניתן להשיג פשרות חלקות בין סיכון לכיסוי. ככל שהסף גבוה יותר, שיעור השגיאות יורד באופן משמעותי, אך חלק מהשאלות נשארות ללא מענה. זהו מנגנון פשוט אך יעיל לשליטה באמינות, ללא צורך באימון מחדש של המודל. המחברים מדגימים כיצד הגישה הזו מפחיתה שגיאות בצורה צפויה ומדידה.
הממצא השני עוסק בעמידות מול שינויי תפלגות (distribution shift), אתגר מרכזי ביישומי AI אמיתיים. המחקר בודק אם השליטה נשמרת גם כשהנתונים משתנים. תוצאות ראשוניות מצביעות על יציבות יחסית, אך מדגישות את הצורך בהתאמות נוספות. זה חשוב במיוחד ליישומים כמו ניתוח וידאו אבטחה או רכבים אוטונומיים, שבהם הסביבה משתנה תדיר.
למה זה משנה לעסקים ישראליים? חברות הייטק מקומיות מפתחות מודלי ראייה-שפה (VLMs) ליישומים תעשייתיים. גישה זו מאפשרת אינטגרציה בטוחה יותר, עם שליטה ישירה על סיכונים. בהשוואה לחלופות כמו fine-tuning יקר, כאן מדובר בכלי פשוט שמתאים למודלים קיימים כמו Gemini. בישראל, עם מומחיות ב-AI ווידאו (כמו Mobileye), זה פותח אפשרויות חדשות לשווקים גלובליים.
המשמעויות העסקיות ברורות: מנהלי טכנולוגיה יכולים להטמיע הימנעות סלקטיבית כדי להפחית סיכונים ביישומים קריטיים, תוך שמירה על יעילות. המחקר מדגיש את הצורך במדדים מדויקים לביטחון, ומזמין פיתוחים נוספים. מה תעשו כדי להבטיח אמינות במודלי הווידאו שלכם?