ניתוח
6 דקות
מ־MIT Technology Review
בקרת אדם על נשק AI אוטונומי: למה זו עלולה להיות אשליה
**בקרת אדם על נשק AI אוטונומי אינה ערובה לבטיחות, משום שמפעיל אנושי לא באמת רואה את מנגנון ההחלטה של מודל "קופסה שחורה".** זה הלקח המרכזי מהוויכוח סביב Anthropic והפנטגון: גם כשאדם נשאר "בתוך הלולאה", הוא עלול לאשר פעולה על בסיס ציון הצלחה של 92% בלי להבין אילו שיקולים המערכת כללה בפועל. עבור עסקים בישראל, המשמעות רחבה הרבה יותר מהתחום הצבאי. כל מערכת AI שמסווגת לידים, מנתבת פניות ב-WhatsApp, או מפעילה תהליכים ב-Zoho CRM ו-N8N חייבת לעבוד עם חוקים, לוגים ומנגנוני בקרה, לא רק עם אישור אנושי פורמלי.
קרא עוד