בעידן שבו מודלי שפה גדולים (LLM) אוטומטיים משימות מורכבות ארוכות טווח כמו 'קידוד וייב', נוצר פער פיקוח משמעותי. בעוד שהמודלים מצטיינים בביצוע, משתמשים מתקשים להנחות אותם עקב חוסר מומחיות בתחום, קושי לנסח כוונה מדויקת והיעדר יכולת לאמת תפוקות מורכבות. זהו אתגר מרכזי בפיקוח מדרגי: אפשרות לבני אדם להוליך באופן אחראי מערכות AI במשימות העולות על יכולתם לתאר או לאמת. מחקר חדש מציג פתרון חדשני.
החוקרים מציעים את מסגרת הפיקוח האינטראקטיבי המדרגי (Scalable Interactive Oversight), שמפרקת כוונה מורכבת לעץ רקורסיבי של החלטות ניהוליות. במקום הנחיות פתוחות, המערכת מבקשת משוב בעול נמוך בכל צומת ומגבשת אותם להנחיה גלובלית מדויקת באופן רקורסיבי. כך, הפיקוח האינטראקטיבי המדרגי ממגיף את הפיקוח האנושי ומאפשר שליטה יעילה יותר.
בדיקה במשימות פיתוח אתרים הוכיחה יעילות: משתמשים לא מומחים יצרו מסמכי דרישות מוצר ברמת מומחים, עם שיפור של 54% בהתאמה. לפי הדיווח, המסגרת מאפשרת למודלים לייצר תוצאות מדויקות יותר בהתאם לכוונות המשתמש, ללא צורך בידע עמוק.
הפיקוח האינטראקטיבי המדרגי מציע הקשר חשוב לעתיד ה-AI: הוא פותר בעיית הפיקוח במשימות שמעבר ליכולת האנושית, ומשווה למודלים מתחרים בכך שהוא מתמקד במשוב מובנה ולא חופשי. בישראל, שבה חברות טק משלבות AI בפיתוח, זה רלוונטי במיוחד להאצת פרויקטים.
מעבר לכך, המסגרת ניתנת לשיפור באמצעות למידת חיזוק (RL) על בסיס משוב משתמשים מקוון בלבד, ומציעה דרך מעשית לשמור על שליטה אנושית ככל שה-AI מתקדם. עבור מנהלי עסקים, זה אומר אפשרות לנצל LLM ביעילות גבוהה יותר.