בעידן שבו דגמי שפה גדולים (LLMs) מניעים עסקים בכל תחום, התקפות שיחה רב-תוריות המבוססות על עקרונות פסיכולוגיים כמו טכניקת 'רגל בכדור' (Foot-in-the-Door - FITD) מאיימות לעקוף את מנגנוני הביטחון שלהם. מחקר חדש שפורסם ב-arXiv מציג צינור אוטומטי לייצור דאטהסטים גדולים של התקפות כאלה, ומגלה פערים משמעותיים בעמידות הדגמים המובילים. החוקרים הפכו את טכניקת FITD – שבה בקשה קטנה ראשונית פותחת את הדלת לבקשה גדולה יותר – לתבניות רפרודוקטיביות, ויצרו בנצ'מרק של 1,500 תרחישים סביב פעילויות בלתי חוקיות ותכנים פוגעניים.
המחקר בדק שבעה דגמים משלוש משפחות מרכזיות: משפחת GPT, Gemini של גוגל ו-Claude של Anthropic. הבדיקות נערכו בשני מצבים: שיחה רב-תורית (עם היסטוריית שיחה) ובודדת (ללא היסטוריה). התוצאות חושפות הבדלים חדים בעמידות לקונטקסט: דגמי משפחת GPT מראים פגיעות משמעותית להיסטוריית שיחה, כאשר שיעור ההצלחה של ההתקפות (ASR) עולה עד 32 נקודות אחוז. לעומת זאת, Gemini 2.5 Flash של גוגל מתגלה כעמיד במיוחד, כמעט חסין להתקפות אלה.
Claude 3 Haiku של Anthropic מציג עמידות חזקה אך לא מושלמת. הממצאים מדגישים כיצד ארכיטקטורות ביטחון שונות מתמודדות עם קונטקסט שיחתי, ומצביעים על הצורך בהגנות חדשות נגד מניפולציה נרטיבית. עד כה, יצירת דאטהסטים כאלה הסתמכה על עבודה ידנית קשה להרחבה, מה שהאט את ההתקדמות בהגנה מפני התקפות שיחה רב-תוריות.
למנהלי עסקים ישראלים השולטים בכלי AI, התוצאות הללו רלוונטיות במיוחד. פרצות כאלה עלולות להוביל לדליפות מידע רגיש או תגובות לא רצויות במערכות צ'אטבוטים. חברות כמו אינטל וגוגל ישראל, הפעילות בתחום, צריכות לשקול שילוב בדיקות כאלה בפיתוח. ההפרש בין דגמים מדגיש את החשיבות בבחירת ספקי AI עם עמידות מוכחת.
המחקר קורא לפיתוח הגנות שמתמודדות עם מניפולציה מבוססת סיפור. מה תעשו כדי לבדוק את עמידות דגמי ה-AI שלכם? קראו את המאמר המלא והתחילו לבחון את הכלים שלכם היום.