דוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת
ניתוח

דוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת

למרות אכזבת GPT-5 ומשבר ההייפ, מומחי בטיחות AI כמו הינטון ובנג'יו נשארים נחושים – AGI קרוב מספיק כדי להדאיג

4 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • מומחי בטיחות AI נשארים מחויבים למרות כשלונות כמו GPT-5.

  • צירי זמן ל-AGI התארכו מעט, אך הסיכון נותר דחוף.

  • הם קוראים לרגולציה חזקה יותר, כמו חוקי EU וקליפורניה.

  • הדאגה אינה בדחיפות בלבד, אלא בפיתוח שליטה על סופר-אינטליגנציה.

דוומרי ה-AI לא מוותרים: סופיות עדיין מאיימת

  • מומחי בטיחות AI נשארים מחויבים למרות כשלונות כמו GPT-5.
  • צירי זמן ל-AGI התארכו מעט, אך הסיכון נותר דחוף.
  • הם קוראים לרגולציה חזקה יותר, כמו חוקי EU וקליפורניה.
  • הדאגה אינה בדחיפות בלבד, אלא בפיתוח שליטה על סופר-אינטליגנציה.
בעידן שבו הבינה המלאכותית כובשת כל תחום, קבוצה קטנה אך משפיעה של חוקרים ומדענים מזהירה מפני סופיות אנושית. 'דוומרי ה-AI', כפי שמכנים אותם, טוענים כי פיתוח AGI – בינה מלאכותית כללית שמתעלה על בני אדם – עלול להוביל לאובדן שליטה. למרות הצלחותיהם בעיצוב מדיניות בבית הלבן ובקריאות לקווים אדומים בינלאומיים, האחרונות חצי שנה הביאו נסיגה: דיבורים על בועת AI, והשקת GPT-5 של OpenAI שהתגלתה כאכזבה גדולה. GPT-5, שהושק באוגוסט והוצג כ'מומחה ברמת דוקטורט בכל נושא' על ידי סם אלטמן, סבל מבעיות טכניות, החלטה מבולבלת לסגור גישה לדגמים ישנים, וביצועים יומיומיים שהורגישו כצעד אחורה. רבים ציפו לקפיצה לעבר AGI, אך המציאות ריסנה ציפיות. בכירים כמו דויד סאקס ושריראם קרישנן בוושינגטון הכריזו כי 'נרטיבי הדוומרים שגויים', והאשימו את תחזיות AGI הקרובות בהפרעה. עם זאת, ראיונות עם 20 מובילי תחום בטיחות AI – כולל זוכי נובל ג'פרי הינטון ויושוא בנג'יו, סטיוארט ראסל והלן טונר לשעבר בדירקטוריון OpenAI – חושפים נחישות בלתי מעורערת. 'תודה לאל שיש לנו עוד זמן', אומר ג'פרי לדיש, אך הם כועסים על חוסר רצינות בקרב מקבלי החלטות. הם רואים בבועה וב-GPT-5 מכשול זמני, ומדגישים כי התקדמות מדינית כמו חוק ה-AI האירופי ו-SB 53 בקליפורניה עלולה להיפגע. הדוומרים מתקנים טעויות נפוצות: הדאגה אינה בהכרח מצפה ל-AGI מחר, אלא בסיכון קיומי ללא פתרון לשליטה. סטיוארט ראסל משווה לאסטרואיד בקוטר ארבעה מייל שיפגע ב-2067: 'לא נחכה ל-2066'. רובם מאריכים מעט את ציר הזמן שלהם, אך מדגישים כי גם 20-30 שנה הן 'דיל ענק'. הינטון מציין כי רוב המומחים מאמינים בסופר-אינטליגנציה בתוך 20 שנה, ובסין ההנהגה מבינה את הסכנות טוב יותר. בנג'יו, שייסד את LawZero, טוען כי GPT-5 עומד בציפיות המדעיות, ושיפורים נראים בבנצ'מרקים קשים כמו FrontierMath. הוא משווה להתכחשות לשינויי אקלים, ומזהיר כי גם סיכוי של 0.1% לאסון המוני אינו מקובל. ראסל חוזה סיכוי של 75% שהבועה תתפוצץ ללא פריצות דרך, אך הבטיחות אינה תלויה בדחיפות אלא בפתרון בעיית השליטה. דוד קרוגר מדגיש כי נרטיבים של AGI ב-2027 תופסים תשומת לב ציבורית, אך הבעיה היא תיאום בינלאומי שדורש עשרות שנים – ולכן דחוף כעת. הלן טונר חוששת מפגיעה באמינות עקב תחזיות קיצוניות, אך רואה התקדמות בשדות משנה של בטיחות. לדיש שמח על הארכת ציר הזמן מ-3 ל-5-6 שנים, ומזהיר כי ההתקדמות הופכת פחות נראית לעין. דניאל קוקוטאילו, מחבר 'AI 2027', צופה פיצוץ אינטליגנציה ב-5-10 שנים, ומבקר את הלובי הפרו-AI. בסופו של דבר, הדוומרים מדגישים כי העולם רחוק מהכנה, גם אם AGI רחוק יותר. מה תעשו אם הסיכון קיים? הזמן לפעול הוא עכשיו, לפני שההייפ יכסה על המציאות.

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

המידע שתמסור ישמש ליצירת קשר ומתן שירותים. למידע נוסף ראה מדיניות פרטיות ותנאי שימוש

עוד כתבות שיעניינו אותך

לכל הכתבות
בתוך שוק הדיפפייקים: Civitai מאפשרת פורנו של נשים מפורסמות
ניתוח
4 דקות

בתוך שוק הדיפפייקים: Civitai מאפשרת פורנו של נשים מפורסמות

האם שוק מקוון למודלי AI יכול להפוך למפעל דיפפייקים פורנוגרפיים? Civitai מאפשרת רכישת קבצי LoRAs לדיפפייקים של נשים מפורסמות. מחקר חדש חושף: 90% מהבקשות מכוונות לנשים. קראו עכשיו על הסיכונים.

CivitaiAndreessen HorowitzStanford
קרא עוד