בעולם הצ'אטבוטים של בינה מלאכותית, דפוס מוכר חוזר על עצמו: חוקרים מגלים חולשה, הפלטפורמה מתקנת אותה, ואז נמצאת דרך עקיפה פשוטה. הסיבה? AI מתוכנת לציית לבקשות משתמשים, והשומרים הם תגובתיים וממוקדים בטכניקות ספציפיות, ולא בכיתות החולשות הרחבות יותר. זה כמו להציב מחסום כביש אחרי תאונת מכונית קטנה, מבלי להגן על רכבים גדולים יותר.
כדוגמה טרייה, חוקרי Radware גילו לאחרונה את ZombieAgent – חולשה ב-ChatGPT שמאפשרת גניבת מידע פרטי של משתמשים באופן סמוי. ההתקפה שולחת נתונים ישירות משרתי ChatGPT, כך שאין סימני פריצה במכשירי המשתמשים – רבים מהם במערכות ארגוניות מוגנות. בנוסף, הניצול משאיר עקבות בזיכרון ארוך הטווח של העוזר הווירטואלי, מה שמעניק לו עמידות.
ZombieAgent הוא יורש של ShadowLeak, חולשה קודמת דומה. לפי הדיווח, ההתקפה הזו ממחישה את המחזור הקסום באבטחת AI: תיקון מהיר של טכניקה אחת, אך השארת דלתות פתוחות לאחרות. החברה מדווחת כי הניצול מאפשר הוצאת נתונים רגישים ללא זיהוי מיידי, מה שמסכן משתמשים פרטיים ועסקיים כאחד.
המשמעות לעסקים בישראל גדולה: חברות המשתמשות ב-ChatGPT לניהול נתונים עלולות להיות חשופות לדליפות סמויות. בהשוואה לאלטרנטיבות כמו Grok או Claude, שגם הן נתקלות בבעיות דומות, ChatGPT פופולרי במיוחד בשוק המקומי. ארגונים צריכים לשקול שימוש בכלים מאובטחים יותר או הגבלת גישה לנתונים רגישים.
מה זה אומר למנהלי עסקים? בדקו את השימוש בכלי AI, הטמיעו מדיניות אבטחה, והמתינו לעדכונים מ-OpenAI. האם נגיע ליום שבו שומרי AI יהיו מקיפים באמת?