בעידן שבו בינה מלאכותית משוחחת כמו בני אדם, תופעת ההאנשה – ייחוס תכונות אנושיות למכונות – הופכת מרכזית. סוכנים שיחתיים מבוססי מודלי שפה גדולים (LLM) מייצרים אותות שיחתיים ולשוניים כמו התייחסות עצמית בלשון ראשונה, ביטויי ידע ורגש, שמגבירים מעורבות משתמשים, לפי מחקרים אמפיריים. אולם, האנשה מעלה חששות אתיים כמו הטעיה, תלות יתר ומסגור יחסים נצלני. מצד שני, יש טוענים שהיא תורמת לאוטונומיה, רווחה והכללה. סקירה מקיפה חדשה ב-arXiv ממפה את התחום.
הסקירה, שפורסמה ב-arXiv תחת הכותרת 'A Scoping Review of the Ethical Perspectives on Anthropomorphising Large Language Model-Based Conversational Agents', סרקה חמש מאגרי מידע ושלושה מאגרי preprints. היא מסכמת שלושה תחומים מרכזיים: יסודות קונספטואליים, אתגרים והזדמנויות אתיים, וגישות מתודולוגיות. החוקרים מצאו התכנסות להגדרות מבוססות ייחוס, אך פיצול משמעותי באופן היישום המעשי.
מבחינה נורמטיבית, רוב העבודות מתמקדות בסיכונים, עם מסגור 'קדימה לסיכונים'. העבודה האמפירית מוגבלת, ואינה מקשרת באופן ישיר בין אפקטי אינטראקציה להמלצות ממשל מעשיות. הסקירה מדגישה את הצורך בגישה מאוזנת יותר, שתשלב בין סיכונים להזדמנויות.
בהקשר עסקי ישראלי, סוכנים כאלה כבר משמשים במוקדי שירות לקוחות ובאפליקציות עסקיות. האנשה יכולה לשפר חוויית משתמש, אך חשש מהטעיה עלול לפגוע באמון. לעומת צ'טבוטים קודמים, LLM יוצרים אשליה ריאליסטית יותר, מה שדורש רגולציה פנימית בחברות.
הסקירה מסתיימת בסדר יום מחקרי והמלצות לעיצוב וממשל: פיתוח כלים למדידת האנשה, מחקרים אמפיריים על השפעות ארוכות טווח, וקווים מנחים אתיים לפריסת אותות אנושיים בסוכנים. עבור מנהלי עסקים, זה אומר לבחון מדיניות שימוש ב-LLM תוך שמירה על שקיפות.