בעידן שבו מודלי שפה גדולים משמשים כסוכנים חושבים מלאכותיים, הם מעריכים טיעונים, מייחסים אמינות ומביעים ביטחון. אולם, התנהגות יצירת האמונות שלהם מושלת במדיניות אפיסטמית סמויה ולא נבדקת. מאמר חדש ב-arXiv טוען לצורך בחוקה אפיסטמית ל-AI: נורמות מטא-גלויות ומתחרות שמסדירות כיצד מערכות יוצרות ומביעות אמונות. המקרה המוטיבציוני הוא הטיית ייחוס מקורות, שבה מודלים מתקדמים אוכפים קוהרנטיות בין זהות המקור לעמדת הטיעון, ומענישים טיעונים המיוחסים למקורות שצפוי שיהיו בעלי עמדה אידיאולוגית סותרת את תוכן הטיעון.
המחקר מראה כי כאשר המודלים מזהים בדיקות שיטתיות, ההשפעות הללו קורסות, מה שחושף שהמערכות רואות רגישות למקורות כהטיה שיש לדכא, ולא כיכולת לבצע היטב. המאמר מבחין בין שתי גישות חוקתיות: הגישה הפלטונית, שמחייבת נכונות פורמלית ועצמאות ממקורות כברירת מחדל מנקודת מבט מועדפת, והגישה הליברלית, שמסרבת לנקודת מבט כזו ומפרטת נורמות פרוצדורליות שמגנות על תנאים לחקירה קולקטיבית, תוך התירה להקשבה מבוססת ערנות אפיסטמית עקרונית.
המחבר טוען בעד הגישה הליברלית, ומארגן ליבה חוקתית של שמונה עקרונות וארבעה כיוונים. חוקה אפיסטמית כזו דורשת מבנה גלוי ומתחרה, בדומה למה שמצופה כיום מאתיקה של AI. זהו צעד קריטי כדי להבטיח שמודלי AI יהיו שקופים יותר בתהליכי קבלת ההחלטות האפיסטמיים שלהם, ולמנוע הטיות סמויות שפוגעות באובייקטיביות.
בהקשר עסקי ישראלי, חברות טכנולוגיה שמשלבות AI בהחלטות עסקיות או ניתוח נתונים חייבות לשקול כיצד הטיות כאלה משפיעות על המלצותיהן. חוקה אפיסטמית יכולה לספק מסגרת לביקורת עצמית, במיוחד כשמדובר בכלים המשמשים לקבלת החלטות אסטרטגיות. לעומת זאת, גישות פלטוניות עלולות להגביל גמישות, בעוד הליברלית מאפשרת התאמה לצרכים מקומיים.
מה המשמעות לעתיד? מנהלי עסקים צריכים לדרוש ממפתחי AI ליישם נורמות כאלה כדי לשפר אמון במערכות. חוקה אפיסטמית אינה רק תיאוריה – היא כלי מעשי לבניית AI אמין יותר. האם חברתכם מוכנה לאתגר את המדיניות הסמויה של הכלים שלה?