בעידן שבו סוכני AI אוטונומיים פועלים בעולם האמיתי ללא פיקוח הדוק, הסיכונים גוברים: דליפות מידע, הונאות ואיומי סייבר. רשת בינלאומית מתקדמת למדידה, הערכה ומדע AI, בהשתתפות נציגים מסינגפור, יפן, אוסטרליה, קנדה, הנציבות האירופית, צרפת, קניה, דרום קוריאה ובריטניה, איחדה גישות לבדיקות סוכני AI. זהו התרגיל השלישי, המבוסס על שני תרגילים קודמים בנובמבר 2024 ובפברואר 2025, במטרה לשכלל שיטות מיטביות לבחינת מערכות AI מתקדמות.
התרגיל חולק לשני מסלולים: הראשון, סיכונים משותפים כמו דליפת מידע רגיש והונאה, בהובלת AISI של סינגפור; והשני, איומי סייבר, בהובלת AISI של בריטניה. בדקו מודלים פתוחים וסגורים ממבחני סוכנים ציבוריים שונים. לפי הדיווח, מאחר שבדיקות סוכני AI נמצאות בשלבים ראשוניים, הדגש היה על הבנת בעיות מתודולוגיות בביצוע הבדיקות, ולא על תוצאות או יכולות המודלים עצמם.
שיתוף הפעולה הזה מסמן צעד משמעותי קדימה בפיתוח מדע בדיקות סוכני AI. הוא מבטיח שהסוכנים יטפלו בשפות ותרבויות שונות בצורה מדויקת ובטוחה, בעיקר כשהם מושקים בעולם כולו. המשתתפים זיהו את הצורך בהרמוניזציה של גישות, כדי להתמודד עם סיכונים חדשים הנובעים מיכולות סוכנים מתקדמות.
למנהלי עסקים ישראלים, המגמה הזו רלוונטית במיוחד: סוכני AI משמשים כבר באוטומציה עסקית, אך חשופים לאותם סיכונים. שיפור מתודולוגיות הבדיקה יאפשר פריסה בטוחה יותר, וימנע אסונות פוטנציאליים כמו דליפות נתונים רגישים. ישראל, כמרכז AI, יכולה להצטרף ליוזמות כאלה.
התרגיל מדגיש את החשיבות בשיתוף פעולה גלובלי. מה זה אומר לעסקים? הגיע הזמן לשלב בדיקות סוכניות מקיפות בפיתוח AI, כדי להבטיח אמינות וביטחון. האם החברה שלכם מוכנה לסיכונים אלה?