בעידן שבו בינה מלאכותית משנה כל תחום, מחלקת התחבורה האמריקאית (DOT) הופכת לראשונה שמשתמשת בכלי AI לכתיבת תקנות בטיחות קריטיות למטוסים, מכוניות וצינורות. חקירה של ProPublica שפורסמה ביום שני חושפת את הפרקטיקה הזו, ומעוררת חששות כבדים בקרב עובדים. האם ניתן לסמוך על AI שידוע בהזיות והמצאות שגויות? השאלה הזו מעסיקה את עולם התחבורה, שם טעות אחת עלולה להוביל לתביעות, פציעות ואף מקרי מוות.
לפי החקירה, DOT מתכננת להיות הרשות הראשונה שתשתמש ב-AI לבניית תקנות. עובדים חוששים ששגיאות של הכלי לא יתגלו, מה שיוביל לחוקים פגומים. לדוגמה, AI ידוע בכך שהוא מייצר מידע מומצא בביטחון עצמי גבוה, מה שמסכן את מערכת התחבורה כולה. ProPublica מדגישה כי השימוש הזה עלול לשנות את כללי המשחק בחקיקה ממשלתית, במיוחד בתחומי בטיחות.
היועץ המשפטי הבכיר של DOT, גרגורי זרזן, אינו מוטרד מהסיכונים. לפי דקות ישיבה מדצמבר, המטרה אינה שלמות, אלא האצת התהליך. תקנות שנכתבות בשבועות או חודשים יוכנו כעת ב-30 יום בלבד. הכלי המועדף, Google Gemini, מסוגל אפילו לשרטט תקנה שלמה בפחות מ-30 דקות. זרזן טוען שהמהירות הזו תשפר את היעילות הממשלתית.
השימוש ב-AI בתהליכי חקיקה מעלה שאלות על אמינות ורגולציה. בהשוואה לכלים אחרים, Gemini נחשב מתקדם, אך עדיין סובל מבעיות הזיות. בישראל, שבה חברות תעופה וטכנולוגיה פעילות, שינויים כאלה בארה"ב עלולים להשפיע על תקנים גלובליים. עסקים צריכים להתכונן לבדיקות כפולות של תקנות המיוצרות ב-AI, כדי למנוע סיכונים.
המקרה מדגיש את הצורך באיזון בין חדשנות לזהירות. מנהלי עסקים בתחבורה צריכים לשקול כיצד AI ישפיע על רגולציה עתידית. האם נראה שימוש דומה בישראל? כדאי לעקוב אחר ההתפתחויות ולוודא שהבטיחות לא תוקרב לטובת מהירות.