בעידן שבו מודלי AI רב-מודליים הופכים למרכז העולם הטכנולוגי, אתגר חדש חושף את הסוד להצלחה: אוצרות נתונים חכמה ולא בהכרח גדולה. צוות חוקרים זכה במקום ראשון באתגר DCVLR (Data Curation for Vision-Language Reasoning) של NeurIPS 2025, תחרות שמבודדת את תהליך בחירת הנתונים תוך שמירה על מודל ופרוטוקול אימון קבועים. הם השתמשו במערך נתונים קומפקטי שמבוסס בעיקר על Walton Multimodal Cold Start, והוכיחו שזה מספיק כדי להוביל. המחקר מדגיש כיצד אסטרטגיות פשוטות יכולות לשנות את כללי המשחק בפיתוח AI יעיל.
אתגר DCVLR נועד לבחון בדיוק מה משפיע בבחירת נתונים להיגיון רב-מודלי, כמו שילוב בין תמונות וטקסט. החוקרים ביצעו ניתוחים מפורטים לאחר התחרות, ומצאו שבחירת דוגמאות על פי רמת קושי ממערך נתונים מתואם היא הגורם הדומיננטי לשיפור הביצועים. הגדלת גודל הנתונים לא שיפרה באופן אמין את הדיוק הממוצע תחת מתכון האימון הקבוע, אלא רק הפחיתה את השונות בין הרצות. תוצאות אלה מדגישות את החשיבות של איכות על פני כמות.
בניגוד לציפיות, שימוש בהיוריסטיקות נפוצות כמו גיוון נתונים או הרחבה סינתטית לא סיפק יתרון נוסף – ובמקרים רבים אף פגע בביצועים. החוקרים מסכמים כי אתגר DCVLR מתנהל במשטר רוויה, שבו השיפורים נובעים בעיקר מהתאמה טובה יותר וברמת קושי מתאימה. זה מאשר את התפקיד המרכזי של התאמה וקושי באוצרות נתונים יעיל להיגיון רב-מודלי, במיוחד בסביבות עם משאבים מוגבלים.
הממצאים הללו רלוונטיים במיוחד למנהלי טכנולוגיה בישראל, שמתמודדים עם אתגרי פיתוח AI בתעשייה תחרותית. בעוד שחברות כמו גוגל ואמזון משקיעות מיליארדים בנתונים, הגישה הזו מציעה דרך חסכונית יותר: התמקדות בבחירת דוגמאות מאתגרות ומתואמות. בישראל, עם מרכזי AI חזקים כמו במכון ויצמן ובסטארט-אפים בתל אביב, אסטרטגיה כזו יכולה להאיץ פיתוח מודלים מקומיים.
לסיכום, אוצרות נתונים להיגיון רב-מודלי דורשת דיוק ולא נפח. מנהלים עסקיים צריכים לשאול: האם הנתונים שלכם מאתגרים מספיק? התחילו לבדוק אסטרטגיות בחירת קושי כדי לשפר את המודלים שלכם היום.