בעידן שבו מודלי שפה גדולים (LLMs) משתלטים על תהליכי פיתוח תוכנה, עולה השאלה: האם הם מייצגים את כולם? מחקר חדש מזהיר כי רוב המודלים האלה מוטים כלפי נרטיבים מערביים-לבנים, ומתעלמים מקולות תרבויות אחרות. זה יוצר בעיה חמורה עבור צוותים רב-תרבותיים שמסתמכים על AI לשיתוף פעולה חדשני. החוקרים מציעים פתרון: בנצ'מרק חדש בשם CIVIQ שיבדוק התאמה לערכים חברתיים וידע משותף של קהילות ספציפיות.
הבעיה המרכזית היא שמודלי LLM נועדו להיות 'כלליים', אך בפועל הם משקפים את האוכלוסייה הדומיננטית במערב. זה גורם להתנתקות מקבוצות מודרות היסטורית, כמו קהילות אתניות מגוונות. כתוצאה מכך, צוותי הנדסת תוכנה עלולים לקבל תוצאות מוטות שפוגעות בחדשנות. המחקר מדגיש כי מאמצים ראשוניים כמו ChatBlackGPT ניסו לתקן זאת, אך חסר כלי סטנדרטי לבדיקה והתפתחות של מודלים כאלה.
לעומת זאת, ביטחון לאומי קוריאני פיתח את KorNAT – בנצ'מרק להתאמה לערכים חברתיים וידע לאומי. החוקרים מארה"ב מציעים לשכפל את התהליך הזה כדי ליצור את CIVIQ, שיתמקד בקהילות ספציפיות בארה"ב. מכיוון שהארץ מגוונת מדי לבנצ'מרק לאומי אחד, הגישה הזו מאפשרת התאמה מדויקת יותר. CIVIQ יבחן כיצד מודלים משקפים ערכים חברתיים וידע משותף של קהילות שונות.
המשמעות של CIVIQ היא עצומה עבור תעשיית ה-AI. הוא מספק בסיס מחקרי להתאמה תרבותית מעשית, במיוחד בארה"ב שבה מגוון תרבותי הוא אתגר מרכזי. בעבר, ניסיונות לבנצ'מרק לאומי נכשלו בגלל הרבגוניות, אך CIVIQ מציע פתרון מבוסס-קהילות. זה רלוונטי גם לישראל, שבה צוותים רב-תרבותיים משתמשים ב-LLMs לפיתוח טכנולוגיות.
לסיכום, CIVIQ פותח דלת להתקדמות אמיתית בהתאמה תרבותית של AI. מנהלי טכנולוגיה צריכים לשקול אימוץ כלים כאלה כדי להבטיח חדשנות כוללנית. מה תהיה ההשפעה על עתיד הבינה המלאכותית?