ASR-KF-EGR: הקפאה רכה של KV להסקת LLM חסכונית בזיכרון
שיטה חדשה ללא אימון מקטינה את גודל מטמון KV ב-55-67% במודלי LLaMA-3, תוך שמירה על איכות
✨תקציר מנהלים
נקודות עיקריות
הקפאה רכה הפיכה של אסימונים חסרי חשיבות עם שחזור לפי דרישה
צמצום 55-67% בגודל KV ב-LLaMA-3 8B תוך שמירה על איכות
תזמון תת-ליניארי מונע דחיסה יתר
ארכיטקטורה-אגנוסטית, ללא כוונון עדין
מתאימה לפריסות זיכרון מוגבלות
ASR-KF-EGR: הקפאה רכה של KV להסקת LLM חסכונית בזיכרון
- הקפאה רכה הפיכה של אסימונים חסרי חשיבות עם שחזור לפי דרישה
- צמצום 55-67% בגודל KV ב-LLaMA-3 8B תוך שמירה על איכות
- תזמון תת-ליניארי מונע דחיסה יתר
- ארכיטקטורה-אגנוסטית, ללא כוונון עדין
- מתאימה לפריסות זיכרון מוגבלות
שאלות ותשובות
שאלות נפוצות
אהבתם את הכתבה?
הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל
עוד כתבות שיעניינו אותך
לכל הכתבותMobileGen: יצירת נתונים מותאמת לקושי לסוכני GUI מובייל
בעידן שבו סוכני AI צריכים לנווט בממשקי משתמש מורכבים של אפליקציות מובייל, MobileGen מתאימה את רמת הקושי של הנתונים ליכולות הסוכן ומשפרת ביצועים ב-57%. קראו עכשיו על הפריצה הזו!
AutoRefine: שיפור סוכני LLM מתמשך מניסיון
בעולם שבו סוכני דגמי שפה גדולים נתקלים במשימות חדשות ללא למידה מניסיון, AutoRefine משנה את חוקי המשחק עם חילוץ דפוסי ניסיון דואליים ותחזוקה רציפה. תוצאות: 98.4% ב-ALFWorld ועד 27.1% ב-TravelPlanner. קראו עכשיו!
CVeDRL: מאמת קוד יעיל בלמידת חיזוק מודע לקושי
CVeDRL מציג מאמת קוד מבוסס RL שמשפר ביצועים ב-29% מעל GPT-3.5 עם מהירות פי 20. קראו על השיטה החדשנית שפותרת בעיות אימות בקוד LLM. קראו עכשיו!
יחס חשיבות מקדים: יציבות באופטימיזציה של LLMs
מודלי שפה גדולים זקוקים ליציבות באימון RL מחוץ-מדיניות. חוקרים מציגים MinPRO, שיטה חדשה המבוססת על יחס חשיבות מקדים, שמשפרת יציבות וביצועים. קראו עכשיו!