בעידן שבו מודלי שפה גדולים (LLMs) חייבים לקרוא לפונקציות חיצוניות כדי להתחבר לכלים ולממשקי API, יכולות קריאת הפונקציות שלהם הפכו קריטיות להצלחתם בעולם העסקי. אולם, שיטות קיימות לשיפור היכולות הללו מסתמכות על נתונים ממקורות מוגבלים כמו סימון ידני או יצירה אוטומטית, מה שיוצר דפוסים קבועים ומגביל את ההכללה והעמידות. מחקר חדש מ-arXiv מציג גישה חדשנית שמשתמשת בהגברת נתונים עוינת כדי להתגבר על מגבלות אלה.
לפי הדיווח במאמר, השיטות המסורתיות פשוט מדי ומבוססות על אימון מחדש (finetuning) עם נתונים שאינם מכוונים מספיק לחולשות הספציפיות של המודלים. זה מוביל לביצועים חלשים במקרים חדשים או מורכבים. החוקרים מציעים פתרון מתקדם: מודל שאילתות (query model) שמאומן באמצעות למידה מחוזקת (RL) כדי לייצר שאילתות עוינות מכוונות שמאתגרות במיוחד את מודלי קריאת הפונקציות (FC models).
התהליך מבוסס על ניסוח משחק סכום אפס, שבו מודל השאילתות והמודל של קריאת הפונקציות מתאמנים לסירוגין. מודל השאילתות לומד לייצר דוגמאות קשות ביותר, בעוד מודל ה-FC משתפר כדי להתמודד איתן. גישה זו מאפשרת אימון ממוקד ומתמשך שמזהה ומתקן חולשות ספציפיות, ללא צורך בנתונים חיצוניים מוגבלים.
לעסקים ישראלים בתחום הבינה המלאכותית, שיטה זו רלוונטית במיוחד. מודלי LLMs משמשים כיום לאוטומציה של תהליכים עסקיים, כמו חיבור למערכות ERP או API פיננסיים. שיפור העמידות לקריאת פונקציות יאפשר יישומים אמינים יותר, ויפחית סיכונים בתהליכי אוטומציה. בהשוואה לשיטות קודמות, הגישה העוינת מבטיחה הכללה טובה יותר למצבים לא צפויים.
המחקר מספק מסגרת אימון שיטתית שמקדמת פיתוח מודלי FC חזקים יותר. למנהלי טכנולוגיה, זה אומר השקעה נכונה יותר בכלי AI שמתקשרים עם סביבת העבודה האמיתית. השאלה היא: האם גישה זו תהפוך לסטנדרט חדש באימון מודלי שפה?