אנשים משתמשים ב-AI לזיהוי שגוי של סוכן פדרלי שירה ברנה גוד
חדשות

אנשים משתמשים ב-AI לזיהוי שגוי של סוכן פדרלי שירה ברנה גוד

תמונות מזויפות מבוססות בינה מלאכותית מתפשטות ברשתות החברתיות ומאשימות אנשים חפים מפשע – כיצד דיסאינפורמציה פוגעת באכיפת חוק

3 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • סוכן ICE ירה למוות ברנה גוד במיניאפוליס; סרטונים מראים אירוע דרמטי.

  • גולשים מפיצים תמונות AI ש'מגלות' פני הסוכן – מזויפות לחלוטין.

  • פרופ' פאריד: AI מזהה פנים באופן לא מדויק, במיוחד כשחלק מוסתר.

  • שמות שגויים כמו סטיב גרוב התפשטו; העיתון הכחיש קשר.

  • לא מקרה ראשון: דומה לרצח קירק בספטמבר.

אנשים משתמשים ב-AI לזיהוי שגוי של סוכן פדרלי שירה ברנה גוד

  • סוכן ICE ירה למוות ברנה גוד במיניאפוליס; סרטונים מראים אירוע דרמטי.
  • גולשים מפיצים תמונות AI ש'מגלות' פני הסוכן – מזויפות לחלוטין.
  • פרופ' פאריד: AI מזהה פנים באופן לא מדויק, במיוחד כשחלק מוסתר.
  • שמות שגויים כמו סטיב גרוב התפשטו; העיתון הכחיש קשר.
  • לא מקרה ראשון: דומה לרצח קירק בספטמבר.
שעות ספורות לאחר שסוכן פדרלי מסוכן ירה למוות ברנה ניקול גוד, אישה בת 37 ממיניאפוליס, גולשים ברשתות החברתיות מפיצים תמונות משונות: תמונות של הסוכן 'מגולה פנים'. אך מדובר בתמונות מזויפות שנוצרו באמצעות כלי בינה מלאכותית, שגורמות לזיהוי שגוי ומסוכן של קצין האכיפה. האירוע התרחש ביום רביעי בבוקר, והסרטונים שפורסמו מראים שני סוכנים מסוכנים ניגשים לרכב SUV חונה באמצע הכביש. הסוכן תופס בידית הדלת, הרכב נוסע לאחור ואז קדימה, וסוכן שלישי יורה ברכב וממית את גוד. הסרטונים לא חושפים את פניהם של הסוכנים. לפי דוברת משרד הביטחון המקומי, טרישה מקלאפלין, מדובר בקצין של שירות המכס והגנת הגבולות (ICE). תוך שעות, תמונות 'מגולות' של הסוכן החלו להתפשט בכל פלטפורמות הרשתות החברתיות: X, פייסבוק, תריידס, אינסטגרם, בלווסקי וטיקטוק. WIRED בחנה תמונות רבות שנלקחו מצילומי האירוע אך שונו באמצעות AI כדי ליצור פנים דמיוניות. קלוד טיילור, מייסד PAC נגד טראמפ, פרסם ב-X תמונה כזו וכתב 'אנחנו צריכים את שמו', והפוסט צבר 1.2 מיליון צפיות. בחשבון תריידס בשם Influencer_Queeen נכתב: 'בואו נמצא את כתובתו, אבל רק אותו, לא את הילדים שלו', עם 3,500 לייקים. האוניברסיטאות מאשרות: פרופ' האני פאריד מאוניברסיטת UC ברקלי, מומחה לשיפור תמונות AI, מסביר: 'שיפור מבוסס AI נוטה להזות פרטי פנים, במיוחד כשהחצי השני מוסתר. אין דרך מדויקת לשחזר זהות'. גולשים רבים טוענים לזיהוי הסוכן, מפרסמים שמות אמיתיים וקישורים לחשבונותיהם. WIRED אימתה ששני שמות כאלו אינם קשורים ל-ICE. אחד השמות ששווקו ללא ראיות הוא סטיב גרוב, מנכ"ל עיתון מינסוטה סטאר טריביון, ששימש בעבר בממשלת המושל טים וולץ. כריס איילס, סגן נשיא התקשורת בעיתון, אמר ל-WIRED: 'אנחנו עוקבים אחר קמפיין דיסאינפורמציה מתואם שמזהה בטעות את קצין ICE כמנכ"לנו סטיב גרוב, שאין לו קשר'. זהו לא מקרה ראשון: בספטמבר, לאחר רצח צ'ארלי קירק, תמונת AI מזויפת של היורה התפשטה והייתה שונה לחלוטין מהחשוד האמיתי. שימוש ב-AI ליצירת תמונות מזויפות מדגים את הסכנות הגוברות של דיסאינפורמציה ברשתות החברתיות, במיוחד באירועי ירי ואכיפה. בעוד AI משמש לשיפור תמונות, הוא יוצר 'הלוצינציות' שמובילות להאשמות שווא נגד חפים מפשע. זה מעלה שאלות על אחריות הפלטפורמות ועל הצורך בכלים לזיהוי deepfakes. למנהלי עסקים בישראל, שמתמודדים עם דיסאינפורמציה פוליטית ותקשורתית, המקרה מדגיש את החשיבות של אימות מידע לפני שיתוף. חברות טכנולוגיה צריכות להשקיע יותר ב-AI לזיהוי תוכן מזויף, כדי למנוע נזק חברתי. מה תפקידנו כצרכני מידע? האם ניתן לסמוך על תמונות 'משופרות' מרשתות חברתיות? המקרה הזה קורא לפעולה: בדקו מקורות, אל תשתפו ללא אימות.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד כתבות שיעניינו אותך

לכל הכתבות