בעידן שבו מודלי שפה גדולים (LLM) משתלבים בעוזרים דיגיטליים ברכב, תשובות מסוכנות או לא חוקיות עלולות לגרום לתאונות קשות, בעיות אתיות ותביעות משפטיות. חוקרים מפרסמים את DriveSafe – סיווג סיכונים היררכי בן ארבע רמות שמפרט 129 קטגוריות אטומיות של כשלים קריטיים. הסיווג מבוסס על תקנות נהיגה אמיתיות ועקרונות בטיחות, ונבדק על ידי מומחים. זהו צעד ראשון להתאמת בטיחות AI לסביבת נהיגה אמיתית, שבה כל שגיאה עלולה להיות קטלנית.
DriveSafe מחולק לארבע רמות היררכיות: טכנית, משפטית, חברתית ואתית. הוא מכסה סיכונים ספציפיים לנהיגה, כמו המלצות על עקיפות מסוכנות או התעלמות מחוקי תנועה. הסיווג נועד לזהות כשלי בטיחות ייחודיים של LLM בעוזרי נהיגה, בניגוד למסגרות כלליות קיימות. החוקרים מדגישים כי סיווג זה מאפשר הערכה שיטתית של כשלים, ומספק בסיס לפיתוח פתרונות ממוקדים.
כדי לבדוק את הרלוונטיות, נבחנו התנהגויות סירוב של שישה מודלי LLM מובילים מול שאילתות נהיגה לא בטוחות או לא תקניות. התוצאות חושפות כשל משמעותי: הדגמים נכשלים לעיתים קרובות בסירוב מתאים, מה שמעיד על מגבלות יישור הבטיחות הכללי בהקשרי נהיגה. זה מדגיש את הצורך בסיווגים דומיין-ספציפיים כמו DriveSafe.
הסיווג הזה רלוונטי במיוחד לתעשיית הרכב האוטונומי, שמתרחבת במהירות. בישראל, שבה חברות כמו Mobileye מובילות בחדשנות נהיגה אוטונומית, כשלי AI כאלה עלולים לפגוע באמון הציבור ובתקנות. DriveSafe מספק כלי להערכת סיכונים, שיפור מודלים והתאמה לרגולציה מקומית ובינלאומית.
עבור מנהלי עסקים בתחום הטכנולוגיה והרכב, DriveSafe הוא אזהרה: יש להשקיע בהערכות בטיחות ספציפיות לנהיגה. כיצד תבטיחו שה-LLM שלכם בטוח בכביש? המחקר זמין ב-arXiv ומזמין פיתוח נוסף.