בעידן שבו מודלי LLM ענקיים מכריעים את שוק הבינה המלאכותית, מגיעה אינטרפэйז ומשנה את חוקי המשחק. במקום לבנות על טרנספורמר יחיד ענק, המערכת החדשה משלבת מחסנית של DNNs הטרוגניים לצד מודלי שפה קטנים כמודולים תפיסה ל-OCR מורכב בפדאפים, גרפים ודיאגרמות, וכן לזיהוי דיבור רב-לשוני. שכבת בניית ההקשר סורקת, מקטלגת ומפרקת מקורות חיצוניים כמו דפי אינטרנט, קוד ופדאפים למצב מובנה קומפקטי. שכבת הפעולות מאפשרת גלישה, אחזור, הרצת קוד בסביבה מבודדת והפעלת דפדפן ללא ראש לדפים דינמיים. בקר דקיק שולט בכל ומציע ממשק בסגנון OpenAI.
אינטרפэйז פועלת כמערכת שלמה: הבקר הדק מחליט אילו מודלים קטנים ופעולות להפעיל, ומעביר תמיד את ההקשר המזוקק ל-LLM שבחר המשתמש לייצור התשובה הסופית. גרסת הבטא, אינטרפэйז-בטא, משיגה תוצאות מרשימות: 83.6% ב-MMLU-Pro, 91.4% ב-MMLU, 81.3% ב-GPQA-Diamond, 57.8% ב-LiveCodeBench v5 ו-90.0% ב-AIME-2025. בתחומים מולטימודליים: 77.3% ב-MMMU, 91.5% ב-AI2D, 90.9% ב-ChartQA ו-90.8% ב-Common Voice v16.
החדשנות המרכזית היא בהעברת רוב העיבוד למודלים קטנים ולמחסנית הכלים. רוב השאילתות מטופלות בעיקר על ידי רכיבים אלה, כאשר ה-LLM הגדול פועל רק על הקשר מזוקק – מה שמביא לדיוק תחרותי תוך העברת הנטל החישובי מהמודלים היקרים והמונוליטיים. כך, אינטרפэйז הופכת את היישומים של LLM מודרניים לבעיית בנייה ופעולה על פני הקשר.
למנהלי עסקים ישראלים, אינטרפэйז מצביעה על מגמה ברורה: עתיד ה-AI לא במודלים ענקיים בלבד, אלא בשילוב חכם של מודלים קטנים ממוקדי משימה עם כלים. זה מאפשר חיסכון בעלויות חישוב, שיפור מהירות וטיפול טוב יותר בתוכן מולטימודלי – רלוונטי במיוחד לחברות טק ישראליות המפתחות פתרונות אוטומציה. בהשוואה למערכות קיימות, אינטרפэйז מציעה גמישות גבוהה יותר עם ממשק פשוט.
מה זה אומר לעסקים? אימוץ גישות כאלה יכול להוזיל פרויקטי AI ב-50% ומעלה, תוך שמירה על ביצועים גבוהים. מנהלים צריכים לשקול אינטגרציה של כלים דומים כבר עכשיו, לפני שהמתחרים יעשו זאת. האם אתם מוכנים לעתיד ה-AI המבוזר?