זיהוי דפוסי התקפה זמניים בזרימות AI רב-סוכנים: מסגרת פתוחה
מחקר

זיהוי דפוסי התקפה זמניים בזרימות AI רב-סוכנים: מסגרת פתוחה

חוקרים מפתחים שיטה חדשה לאימון מודלי שפה לזיהוי התקפות בזרימות עבודה של סוכנים AI באמצעות ניתוח טרייסים של OpenTelemetry. שיפור מדויקות של 31%

3 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • איסוף 80K דוגמאות אמיתיות + 35K טרייסים סינתטיים מ-18 מקורות סייבר.

  • אימון QLoRA איטרטיבי על חומרה זולה, שיפור דיוק של 31.4%.

  • שחרור מלא של נתונים וסקריפטים ב-HuggingFace.

  • הדגש על הרכב נתונים ממוקד מניב תוצאות טובות יותר.

  • מסגרת ראשונה לשחזור לבניית מודלי אבטחה מותאמים.

זיהוי דפוסי התקפה זמניים בזרימות AI רב-סוכנים: מסגרת פתוחה

  • איסוף 80K דוגמאות אמיתיות + 35K טרייסים סינתטיים מ-18 מקורות סייבר.
  • אימון QLoRA איטרטיבי על חומרה זולה, שיפור דיוק של 31.4%.
  • שחרור מלא של נתונים וסקריפטים ב-HuggingFace.
  • הדגש על הרכב נתונים ממוקד מניב תוצאות טובות יותר.
  • מסגרת ראשונה לשחזור לבניית מודלי אבטחה מותאמים.
בעולם שבו סוכני AI רב-מערכתיים הופכים למורכבים יותר, חוקרים מציגים מתודולוגיה מתועדת בגלוי לאימון מודלי שפה לזיהוי דפוסי התקפה זמניים בזרימות עבודה רב-סוכניות. השיטה מבוססת על ניתוח טרייסים של OpenTelemetry ומציעה מסגרת ראשונה שניתן לשחזר אותה בקלות. לפי המחקר, איסוף מאגר נתונים הכולל 80,851 דוגמאות מ-18 מקורות סייבר ציבוריים ו-35,026 טרייסים סינתטיים מאפשר אימון יעיל על חומרה מוגבלת. החוקרים מיישמים אימון QLoRA איטרטיבי בשלושה שלבים על חומרת ARM64 (NVIDIA DGX Spark), תוך שימוש בהגברה אסטרטגית של נתונים. בדיקת הבנצ'מרק המותאם מראה שיפור משמעותי בדיוק: מ-42.86% ל-74.29%, עלייה של 31.4 נקודות אחוז. הדגש על דוגמאות ממוקדות לכיסויי ידע ספציפיים מניב תוצאות טובות יותר מהגדלת נתונים באופן אקראי, מה שמדגיש את חשיבות הרכב הנתונים באימון מודלים. תרומות מרכזיות כוללות מתודולוגיה לייצור טרייסים סינתטיים להתקפות תיאום רב-סוכניות והפרות רגולטוריות, ראיות אמפיריות לכך שהרכב נתוני האימון קובע את ההתנהגות, ושחרור מלא של מאגרי הנתונים, סקריפטי אימון ובנצ'מרקים ב-HuggingFace. המחקר מוכיח כי ניתן לבנות מודלי אבטחה מותאמים אישית לנוף האיומים של כל ארגון. המסגרת הזו רלוונטית במיוחד לעסקים ישראליים המפתחים מערכות AI רב-סוכניות, שם איומי סייבר מתוחכמים הופכים לאתגר מרכזי. בהשוואה לפתרונות מסורתיים, הגישה מבוססת-טרייסים מאפשרת זיהוי התקפות זמניות שלא נראות בכלים סטטיים. ארגונים יכולים להתאים את המודלים לצרכיהם ללא צורך במשאבים כבדים. עם זאת, פריסה מעשית דורשת פיקוח אנושי בשל שיעורי שגיאות חיוביות כוזבות. המחקר הזה פותח דרך לבניית מודלי אבטחה agentic מותאמים, ומזמין מנהלי טכנולוגיה לשלב אותם בזרימות העבודה. מה תהיה ההשפעה על אבטחת ה-AI שלכם?

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד כתבות שיעניינו אותך

לכל הכתבות
פירוק מובנה להיגיון LLM: שילוב עם רשת סמנטית
מחקר
2 דקות

פירוק מובנה להיגיון LLM: שילוב עם רשת סמנטית

בעידן שבו החלטות משפטיות, רפואיות ומדעיות חייבות להיות ניתנות לביקורת, מחקר חדש מציג פירוק מובנה להיגיון LLM שמשלב גמישות עם ערבויות פורמליות. קראו עכשיו על התוצאות המעולות בשלושה תחומים! (112 מילים)

LLMsSWRLOWL 2
קרא עוד