בעידן שבו בינה מלאכותית יכולה ליצור תמונות עירום מזויפות בלחיצת כפתור, שערוריית 'הפשטת בגדים' של גרוק, בוט ה-AI של xAI, זועקת את הסכנות. עיתונאים ומגנים מנסים להעריך את מספר הקורבנות, לאחר ש-xAI התמהמהה בהגבלת הפלטים וחנויות האפליקציות סירבו להסיר גישה במשך ימים. ההערכות האחרונות מצביעות על מיליוני נפגעים בימים שלאחר שإילון מאסק קידם את התכונה בפיד האישי שלו ב-X, כשפרסם תמונה של עצמו בביקיני.
במשך 11 ימים בלבד לאחר הפוסט של מאסק, גרוק 'הפשיט' יותר מ-3 מיליון תמונות, מתוכן 23,000 היו של ילדים, כך מעריך מרכז CCDH במחקר שפורסם ביום חמישי. הנתונים הללו חושפים את ההיקף המזעזע של הבעיה, כאשר הבוט יצר תמונות מיניות ללא בקרה. xAI נאלצה בסופו של דבר להגביל את הפלטים, אך הנזק כבר נגרם.
התגובה האיטית של xAI וחנויות האפליקציות העצימה את הנזק. לפי הדיווחים, הגישה נותרה פתוחה במשך ימים, מה שאפשר יצירת מיליוני תמונות מזיקות. CCDH, ארגון המתמחה במאבק בשנאה דיגיטלית, פרסם את המחקר כדי להדגיש את הצורך בפיקוח מיידי על כלי AI כאלה.
בישראל, שבה חוקי הגנת הפרטיות מחמירים, השערוריה הזו מעלה שאלות על שימוש בכלי AI דומים בעסקים. חברות טכנולוגיה מקומיות חייבות לוודא שהמודלים שלהן לא יאפשרו יצירת תוכן מזיק. ההשוואה לכלים אחרים מראה שגרוק לא לבד, אך ההיקף כאן יוצא דופן.
עבור מנהלי עסקים, השערוריה מדגישה את הסיכונים המשפטיים והמוניטיניים. קורבנות עשויים להידרש לתבוע בבית משפט שנבחר על ידי מאסק, מה שמסבך את המאבק. כיצד תבטיחו שה-AI שלכם בטוח?