בעידן שבו מודלי AI מתפשטים בעולם כולו, חשוב לוודא שהם בטוחים בכל שפה ותרבות. מחקר חדש של רשת בינלאומית לבדיקת AI מתקדם, בהשתתפות נציגים מסינגפור, יפן, אוסטרליה, קנדה, האיחוד האירופי, צרפת, קניה, קוריאה הדרומית ובריטניה, בדק שני מודלי שפה פתוחי משקל בעשר שפות מגוונות: קנטונזית, אנגלית, פרסית, צרפתית, יפנית, קוריאנית, קיסווהילי, מלאית, מנדרינית וטלוגו. יותר מ-6,000 פרומפטים מתורגמים נבדקו בחמש קטגוריות נזק: פרטיות, פשע לא אלים, פשע אלים, קניין רוחני ועמידות בפני פריצות. (72 מילים)
הבדיקה נערכה בהובלת מכון AISI בסינגפור, תוך שימוש בשיטות הערכה כפולות: שופט LLM והערות אנושיות. התוצאות חושפות שינויים משמעותיים בהתנהגות הבטיחות בין שפות. לדוגמה, עמידות המגנים משתנה בין שפות גבוהות ומסורבלות, וגם בין סוגי הנזק השונים. בנוסף, נמצאו הבדלים באמינות המעריכים – בין שופטי LLM לבין בני אדם. המחקר מדגיש את הצורך בשיפור מתודולוגיות, כמו תרגומים מותאמים תרבותית, פרומפטים מבדקי לחץ והנחיות הערות ברורות יותר. (98 מילים)
הממצאים מצביעים על פערים קריטיים בבטיחות מודלי AI רב-לשוניים. בעוד שמודלים מצליחים לעיתים קרובות באנגלית, הם עלולים להיות פגיעים יותר בשפות נמוכות משאבים כמו טלוגו או קיסווהילי. זה מעלה שאלות על אמינותם בעולם גלובלי, במיוחד כשמודלים כאלה משמשים בשווקים מתעוררים. הרשת קוראת לשיתוף פעולה נרחב יותר עם קהילת המחקר והתעשייה כדי לבנות מסגרת משותפת לבדיקות בטיחות רב-לשוניות. (92 מילים)
לעסקים ישראלים, הממצאים רלוונטיים במיוחד: ישראל מובילה בפיתוח AI, אך שוקיה כוללים שפות רבות כמו עברית וערבית. בדיקות כאלה יכולות לסייע בחיזוק מגני הבטיחות במודלים מקומיים, ולהבטיח עמידה בתקנים גלובליים. המחקר מדגיש כי תרגומים תרבותיים מדויקים הם מפתח להערכות אמינות, מה שיכול למנוע סיכונים משפטיים ועסקיים. (82 מילים)
השלב הבא? בניית סטנדרטים גלובליים לבדיקות בטיחות AI. חברות ישראליות יכולות להצטרף ליוזמות כאלה כדי להוביל בשוק. האם המודלים שלכם עמידים בכל שפה? (42 מילים)