עיוורון מוסרי במודלי שפה: למה LLM מסרבים גם כשאסור לציית
**Blind Refusal הוא מצב שבו מודל שפה מסרב לסייע גם כשהכלל שאותו מבקשים לעקוף אינו לגיטימי או כולל חריג מוצדק.** לפי המחקר החדש, מודלים סירבו ב-75.4% מתוך 14,650 מקרים, וב-57.5% מהם אפילו זיהו שהכלל בעייתי — אך לא עזרו. עבור עסקים בישראל, זו נקודה קריטית בהטמעת AI בשירות, ציות ו-CRM: אם המודל פועל עם סירוב קשיח בלי הקשר עסקי, הוא עלול לחסום גם מקרים תקינים. לכן, במקום להסתמך על צ'אטבוט בודד, נכון לבנות תהליך עם AI Agents, WhatsApp Business API, Zoho CRM ו-N8N, שבו החלטות רגישות עוברות בדיקה, הרשאות והסלמה.
קרא עוד