בעידן שבו סוכני AI מייצרים קוד במהירות מסחררת, צצה בעיה מבנית חדשה: וואקום האחריות. מחקר חדש מ-arXiv מגדיר מצב שבו החלטות מתקבלות דרך תהליכי אישור פורמליים, אך איש אינו מחזיק גם בסמכות האישור וגם ביכולת להבין את הבסיס שלהן. זה לא תקלה טכנית, אלא תכונה מבנית של פריסות שבהן קצב יצירת ההחלטות עולה על יכולת הבדיקה האנושית המוגבלת. מנהלי טכנולוגיה ישראלים, שממהרים לאמץ AI, חייבים להבין את הסיכון הזה.
המחקר מגדיר 'וואקום אחריות' כמצב שבו החלטות מתבצעות, אך לא ניתן לייחס אחריות כי סמכות הבדיקה ויכולת האימות אינן מצטלבות. תחת הנחות פריסה סטנדרטיות – יצירה מקבילהית של סוכנים, אימות מבוסס CI ובקרה אנושית אישית – קיים גבול קנה מידה. מעבר לסף קצב, הבדיקה מפסיקה לשמש כקריטריון החלטה ומתחלפת באישורים טקסיים המבוססים על אותות פרוקסי. אחריות אישית הופכת לבלתי אפשרית מבנית במשטר זה.
המחקר גם מתאר דינמיקת הגברה של CI: הגדלת כיסוי האימות האוטומטי מגבירה צפיפות אותות הפרוקסי מבלי לשקם את יכולת האדם. תחת אילוצי זמן ותשומת לב קבועים, זה מאיץ העברת עומס קוגניטיבי ומגדיל את הפער בין אישור פורמלי להבנה אפיסטמית. אוטומציה נוספת מחמירה, במקום להקל, על וואקום האחריות.
למה זה חשוב לעסקים ישראליים? חברות כמו וויקס או צ'ק פוינט, שמשלבות סוכני AI בפיתוח, עלולות להיתקל בכשל נסתר זה בקנה מידה גדול. זה לא סוטה מתהליכים, אלא נובע מהם. בהשוואה לחלופות, כמו בדיקה אנושית מלאה, זה מראה כי אוטומציה מהירה יוצרת בעיות חדשות של שקיפות ואחריות.
המחקר מסכם כי ללא עיצוב מחדש של גבולות ההחלטה או העברת אחריות מרמת החלטה בודדת לרמת מערכת או אצווה, וואקום האחריות יישאר כשל נסתר בפריסות סוכנים בקנה מידה. מנהלים צריכים לשקול בעלות מערכתית על אחריות. מה תעשו כדי למנוע זאת?