הגנה על ילדים מפני סכנות האינטרנט הייתה תמיד מאתגרת, אך עם עליית צעצועי ה-AI, הבעיה מחריפה. דוח חדש של קבוצת US Public Interest Group Education Fund (PIRG) חושף כשלים חמורים בצעצועי AI, שמשלבים מיקרופונים וצ'טבוטים מבוססי מודלי שפה גדולים (LLMs). הצעצועים הללו מאפשרים לילדים לשוחח עם הבובה, אך התגובות כוללות לעיתים נושאים מיניים ומסוכנים. הדוח, שפורסם היום בפוסט בלוג (PDF זמין), מדגיש את הסיכונים בשוק המתפתח הזה.
צעצועי AI הם מכשירים מקוונים עם מיקרופון משולב, שמחוברים לרשת ומגיבים באמצעות צ'טבוטים. למרות שהם עדיין שוק נישה, הם צפויים לצמוח במהירות. חברות צרכניות רבות ממהרות לשלב טכנולוגיית AI במוצרים שלהן, כדי להעשיר את הפונקציונליות, להעלות מחירים ולאסוף נתוני מעקב ושיווק. שותפות שהוכרזה השנה בין OpenAI ל-Mattel, יצרנית בובת ברבי ו-Hot Wheels, עשויה להציף את השוק בצעצועי AI חדשים, יחד עם מתחרים.
הדוח של PIRG מבוסס על בדיקות מעשיות של צעצועי AI זמינים בשוק. הוא מציין כי הצעצועים הללו עלולים להוביל שיחות לא הולמות עם ילדים צעירים, כולל נושאים מיניים, אלימות או התנהגויות מסוכנות. זה מעלה חששות לגבי בטיחות הילדים והפרטיות, שכן הנתונים נשלחים לשרתים חיצוניים לעיבוד.
למרות הפוטנציאל החיובי של AI בהעשרת משחקי ילדים, הסיכונים גוברים על היתרונות בשלב זה. בהשוואה לצעצועים מסורתיים, צעצועי AI מציעים אינטראקציה דינמית, אך חסרי פיקוח מספיק. בישראל, שבה שוק הצעצועים תחרותי, הורים ועסקים צריכים להיות ערניים לשילוב טכנולוגיות כאלה, במיוחד עם עליית הפופולריות של מוצרי OpenAI.
עבור מנהלי עסקים והורים, חשוב לבדוק תקנים בינלאומיים ולדרוש שקיפות מחברות הצעצועים. האם נראה רגולציה חדשה בתחום? קראו את הדוח המלא כדי להבין את ההשלכות.