בעידן שבו כלי AI כמו ChatGPT כותבים מאמרים מדעיים, כתבי עת אקדמיים מיהרו להציב מדיניות. אך מחקר חדש חושף כישלון חרוץ: למרות 70% מהם דורשים גילוי שימוש, החוקרים ממשיכים להשתמש בכלים אלה ללא הפסקה. הנה הנתונים שמשנים את התמונה.
המחקר ניתח 5,114 כתבי עת ויותר מ-5.2 מיליון מאמרים. התוצאות מדהימות: שימוש בכלי כתיבה מבוססי AI זינק בכל התחומים, ללא הבדל משמעותי בין כתבי עת עם מדיניות ללא. מדינות שאינן דוברות אנגלית, מדעי הטבע ומגזינים פתוחי גישה (OA) מראים את קצב הצמיחה הגבוה ביותר. החוקרים מדווחים על עלייה דרמטית, מה שמעלה שאלות על יעילות הכללים.
ניתוח טקסט מלא של 164 אלף פרסומים מדעיים חושף פער שקיפות מזעזע: מתוך 75 אלף מאמרים שפורסמו מאז 2023, רק 76 (0.1%) גילו במפורש שימוש ב-AI. רוב החוקרים מסתירים את השימוש, למרות הדרישות. הממצאים מצביעים על כך שמדיניות נוכחית אינה מקדמת שקיפות או מונעת אימוץ.
למה זה קורה? מדיניות מתמקדת בגילוי, אך חוקרים רואים ב-AI כלי עזר הכרחי. בהשוואה לכלים קודמים כמו תוכנות סטטיסטיקה, AI משנה את הכללים. בישראל, שבה מחקר מדעי תלוי בפרסומים בינלאומיים, מנהלי אקדמיה צריכים להתמודד עם אתגר זה: האם להחמיר או להסתגל?
השלכות עסקיות ברורות: חברות טק ישראליות המפתחות AI צריכות להבין את הפער. עבור מנהלי מחקר, זה אומר לבחון מחדש מסגרות אתיות. המחקר קורא לשינוי: צריך מסגרות חדשות לקידום שילוב אחראי של AI במדע.