בעידן המהיר של מחקר הבינה המלאכותית, שבה אלפי מאמרים פורסמים מדי שנה, כמה שגיאות נשארות ללא תיקון? מחקר חדש חושף כי מספר השגיאות האובייקטיביות במאמרי AI שפורסמו בכנסים מובילים עולה בהתמדה. חוקרים פיתחו בודק תקינות מאמרים מבוסס GPT-5, שזיהה מאות שגיאות בנוסחאות, חישובים וטבלאות. הממצאים מדאיגים: מניירIPS 2021 עם 3.8 שגיאות בממוצע, ל-5.9 ב-2025 – עלייה של 55%. זה מאיים על הרפרודוקטיביות ומחקרים עתידיים.
הכלי, הנקרא Paper Correctness Checker, נועד לזהות שגיאות אובייקטיביות בלבד – כמו טעויות בנוסחאות מתמטיות, הסקות שגויות, חישובים שגויים, דיאגרמות וטבלאות. הוא נבדק על מאמרים מכנסים מובילים: NeurIPS, ICLR ו-TMLR. מומחים אנושיים בדקו 316 שגיאות פוטנציאליות שזוהו על ידי ה-AI, ומאשרים כי 263 מהן אמיתיות – דיוק של 83.2%. רוב השגיאות קטנות יחסית, אך תיקונן יפחית בלבול בספרות המחקרית ויחזק את האמינות.
הנתונים מראים מגמה ברורה של עלייה: ב-ICLR 2018 היו 4.1 שגיאות בממוצע, לעומת 5.2 ב-2025; וב-TMLR 2022/23 – 5.0 לעומת 5.5 ב-2025. הכלי לא רק מזהה, אלא גם מציע תיקונים נכונים ב-75.8% מהמקרים. זה מעיד על קצב המחקר המואץ שמכביד על ביקורת העמיתים, ומאפשר שגיאות להתפשט ללא שימת לב.
למרות שרוב השגיאות קלות, חלקן עלולות להשפיע על פרשנות התוצאות ולפגוע במחקרים המשך. בישראל, שבה תעשיית ה-AI צומחת במהירות עם מרכזי מחקר כמו במכון ויצמן ובאוניברסיטת תל אביב, ממצאים כאלה רלוונטיים במיוחד. חוקרים ישראלים יכולים להשתמש בכלים כאלה כדי לשפר את איכות הפרסומים שלהם ולהבטיח רפרודוקטיביות גבוהה יותר.
המחקר מדגיש את הפוטנציאל של מודלי שפה גדולים מתקדמים כמו GPT-5 לבניית בסיס ידע איתן יותר. עבור מנהלי טכנולוגיה ומנהלי מו"פ, זה קריאה לפעולה: לשלב כלים אוטומטיים בתהליכי פרסום. האם נראה ירידה בשגיאות בשנים הקרובות, או שהקצב ימשיך להחמיר?