בעולם שבו סוכני AI רב-מערכתיים הופכים למורכבים יותר, חוקרים מציגים מתודולוגיה מתועדת בגלוי לאימון מודלי שפה לזיהוי דפוסי התקפה זמניים בזרימות עבודה רב-סוכניות. השיטה מבוססת על ניתוח טרייסים של OpenTelemetry ומציעה מסגרת ראשונה שניתן לשחזר אותה בקלות. לפי המחקר, איסוף מאגר נתונים הכולל 80,851 דוגמאות מ-18 מקורות סייבר ציבוריים ו-35,026 טרייסים סינתטיים מאפשר אימון יעיל על חומרה מוגבלת.
החוקרים מיישמים אימון QLoRA איטרטיבי בשלושה שלבים על חומרת ARM64 (NVIDIA DGX Spark), תוך שימוש בהגברה אסטרטגית של נתונים. בדיקת הבנצ'מרק המותאם מראה שיפור משמעותי בדיוק: מ-42.86% ל-74.29%, עלייה של 31.4 נקודות אחוז. הדגש על דוגמאות ממוקדות לכיסויי ידע ספציפיים מניב תוצאות טובות יותר מהגדלת נתונים באופן אקראי, מה שמדגיש את חשיבות הרכב הנתונים באימון מודלים.
תרומות מרכזיות כוללות מתודולוגיה לייצור טרייסים סינתטיים להתקפות תיאום רב-סוכניות והפרות רגולטוריות, ראיות אמפיריות לכך שהרכב נתוני האימון קובע את ההתנהגות, ושחרור מלא של מאגרי הנתונים, סקריפטי אימון ובנצ'מרקים ב-HuggingFace. המחקר מוכיח כי ניתן לבנות מודלי אבטחה מותאמים אישית לנוף האיומים של כל ארגון.
המסגרת הזו רלוונטית במיוחד לעסקים ישראליים המפתחים מערכות AI רב-סוכניות, שם איומי סייבר מתוחכמים הופכים לאתגר מרכזי. בהשוואה לפתרונות מסורתיים, הגישה מבוססת-טרייסים מאפשרת זיהוי התקפות זמניות שלא נראות בכלים סטטיים. ארגונים יכולים להתאים את המודלים לצרכיהם ללא צורך במשאבים כבדים.
עם זאת, פריסה מעשית דורשת פיקוח אנושי בשל שיעורי שגיאות חיוביות כוזבות. המחקר הזה פותח דרך לבניית מודלי אבטחה agentic מותאמים, ומזמין מנהלי טכנולוגיה לשלב אותם בזרימות העבודה. מה תהיה ההשפעה על אבטחת ה-AI שלכם?