LAMLAD: מתקפת LLM עוקפת גלאי וירוסי אנדרואיד
מחקר

LAMLAD: מתקפת LLM עוקפת גלאי וירוסי אנדרואיד

חוקרים פיתחו מסגרת התקפה חדשה המשלבת מודלים גדולים של שפה כדי להתגבר על מערכות זיהוי תוכנות זדוניות מבוססות למידת מכונה. הצלחה של 97% בממוצע.

2 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • LAMLAD משלבת שני סוכני LLM לייצור שינויים סמויים בתכונות אפליקציות זדוניות.

  • השיגה ASR של 97% בניסויים נגד גלאי ML מובילים, בממוצע 3 ניסיונות.

  • מציעה הגנה באמצעות אימון אויבות שמפחיתה ASR ב-30%+.

LAMLAD: מתקפת LLM עוקפת גלאי וירוסי אנדרואיד

  • LAMLAD משלבת שני סוכני LLM לייצור שינויים סמויים בתכונות אפליקציות זדוניות.
  • השיגה ASR של 97% בניסויים נגד גלאי ML מובילים, בממוצע 3 ניסיונות.
  • מציעה הגנה באמצעות אימון אויבות שמפחיתה ASR ב-30%+.
בעידן הדיגיטלי שבו תוכנות זדוניות לאנדרואיד מתרבות בקצב מסחרר, חוקרים מציגים את LAMLAD – מסגרת התקפה אויבת חדשנית המשתמשת ביכולות היוצרות והמנתחות של מודלים גדולים של שפה (LLM) כדי לעקוף גלאי תוכנות זדוניות מבוססי למידת מכונה. לפי המחקר, LAMLAD מאפשרת שינויים מדויקים בתכונות האפליקציה ששומרים על תפקוד זדוני אך מרמים את המערכות. זהו אתגר משמעותי לחברות אבטחה שמסתמכות על ML. LAMLAD מבוססת על ארכיטקטורה כפולת-סוכנים: סוכן מניפולטור LLM שמייצר שינויים מציאותיים ומשמרי-תפקוד בתכונות, וסוכן אנליסט LLM שמנחה את התהליך להצלחה בעקיפה. המערכת משלבת יצירה מועשרת-חיפוש (RAG) לשיפור היעילות וההקשריות. היא מתמקדת בייצוגי תכונות בסגנון Drebin, נפוצים במערכות זיהוי אנדרואיד, ומאפשרת התקפות סמויות בעלות ביטחון גבוה. בניסויים נגד שלושה גלאי תוכנות זדוניות מבוססי ML פופולריים, LAMLAD השיגה שיעור הצלחה התקפי (ASR) של עד 97%, בממוצע רק שלוש ניסיונות לדגימה אויבת אחת. זאת לעומת שתי שיטות התקפה מתקדמות קיימות, מה שמדגיש את יעילותה, מהירותה והתאמתה לסביבות מעשיות. החוקרים מדווחים על ביצועים מעולים בהתקפות סמויות. המחקר מדגיש את הפגיעות של גלאי ML לאנדרואיד להתקפות כאלה, ומציע אסטרטגיית הגנה מבוססת אימון אויבות שמפחיתה את ASR ביותר מ-30% בממוצע. זהו צעד חשוב לחיזוק העמידות של מודלים כאלה מול התקפות LAMLAD-סגנון. בהקשר ישראלי, שבו אנדרואיד שולט בשוק הסמארטפונים, איומים כאלה רלוונטיים במיוחד לחברות סייבר מקומיות. עבור מנהלי אבטחה עסקיים, LAMLAD מדגישה את הצורך בשילוב יכולות LLM גם בהגנות, ולא רק בהתקפות. כיצד תבטיחו שהמערכות שלכם עמידות בפני עקיפות חכמות כאלה? המחקר קורא לפיתוח מתמשך של טכנולוגיות מתקדמות.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

עוד כתבות שיעניינו אותך

לכל הכתבות
הגדרה מאוחדת להזיות ב-AI: הבעיה בדגימת העולם
מחקר
2 דקות

הגדרה מאוחדת להזיות ב-AI: הבעיה בדגימת העולם

בעידן שבו מודלי שפה גדולים מניעים חדשנות עסקית, הבעיית ההזיות נותרת אתגר מרכזי אפילו במודלים המובילים בעולם. מאמר חדש מציע הגדרה מאוחדת ומציע בנצ'מרקים חדשים. קראו עכשיו כדי להבין איך לשפר את המודלים שלכם.

arXiv
קרא עוד
כוונון מודע להיררכיה למודלי ראייה-שפה
מחקר
2 דקות

כוונון מודע להיררכיה למודלי ראייה-שפה

בעידן המודלים הרב-מודליים, מודלי ראייה-שפה (VLMs) מצטיינים בלמידה ממאגרי תמונות וטקסט ענקיים, אך התאמתם לסיווג היררכי נותרה תחום לא מנוצל מספיק. קראו על כוונון מודע להיררכיה שמשפר עקביות ביעילות.

Vision-Language ModelsLoRATP-KL
קרא עוד