בעידן הרשתות החברתיות, שבו תכנים ארוכים המשלבים וידאו, אודיו וטקסט שולטים, שיח שנאה מתפשט דרך רמזים מורכבים. מערכות אוטומטיות מזהות אותו היטב, אך הן 'קופסאות שחורות' שאינן מספקות ראיות מפורטות כמו חותמות זמן מדויקות או זהויות מטרות – חיוני לפיקוח אנושי יעיל. כאן נכנסת TANDEM, מסגרת מאוחדת חדשה שמשנה את זיהוי שיח שנאה רב-מודלי מבעיית סיווג בינארי לבעיית חשיבה מובנית.
TANDEM משתמשת באסטרטגיית למידה מחוזקת כפולה חדשנית, שבה מודלי ראייה-שפה ומודלי אודיו-שפה משפרים זה את זה דרך הקשר צולב מוגבל עצמי. גישה זו מייצבת את תהליך החשיבה על פני רצפים זמניים ארוכים, מבלי להזדקק להשגחה צפופה ברמת הפריים. לפי החוקרים, השיטה מאפשרת זיהוי מדויק של חלקי וידאו מזיקים וזהות הקורבנות, מה שמקל על מודרטורים אנושיים.
בניסויים על שלושה מערכי נתונים סטנדרטיים, TANDEM עלתה על שיטות zero-shot ומשופרות-הקשר. במיוחד, היא השיגה ציון F1 של 0.73 בזיהוי מטרות במערך HateMM – שיפור של 30% על פני מיטב השיטות הקיימות. המערכת שומרת על עיגון זמני מדויק, מה שמאפשר סימון מדויק של רגעי השנאה.
למרות זאת, זיהוי בינארי עובד היטב, אך הבחנה בין תוכן פוגעני לשנאי נשארת מאתגרת בסביבות רב-מעמדיות, עקב עמימות תוויות וחוסר איזון בנתונים. ממצאים אלה מדגישים את הצורך בשיפורים נוספים. בהקשר ישראלי, שם רשתות חברתיות מתמודדות עם שנאה פוליטית ועדתית, TANDEM יכולה לשפר כלים קיימים.
ממצאי TANDEM מצביעים על כך שניתן להשיג התאמה מובנית ומפורשת אפילו בסביבות רב-מודליות מורכבות. זהו תרשים דרך לדור הבא של כלי מודרציה שקופים ופעילים לבטיחות מקוונת. מנהלי פלטפורמות עסקיות צריכים לשקול אינטגרציה של שיטות כאלה כדי לשפר יעילות ולהפחית סיכונים משפטיים. מה תהיה ההשפעה על מדיניות התוכן שלכם?