Skip to main content
Automaziot AI logo
  • Home
  • Blog
  • About
  • Contact
(646) 760-4854Book a Free Consultation
Automaziot AI - AI Automation and Intelligent Agents for Business

AI Automation Experts. We help businesses streamline operations and scale faster with intelligent agents and workflow automation.

USA(646) 760-4854IL+972-3-7630715info@automaziot.ai
Ahad Ha'Am 9, Tel Aviv, Shalom Tower

Quick Links

  • Home
  • About
  • Contact
  • Case Studies
  • Glossary

Our Solutions

  • Lead Management
  • WhatsApp AI Agent
  • Business Automation
  • Smart CRM
  • Automated Scheduling
  • Sales & Support
  • WhatsApp Commerce
  • AI Agents
  • Tech Consulting

Stay Updated

Get the latest insights on AI automation delivered to your inbox.

FacebookInstagramLinkedIn

This site uses Google Analytics and Vercel Analytics to improve your experience. For full details, see our Privacy Policy

© 2026 Automaziot AI. All rights reserved.

Privacy PolicyTerms of ServiceAccessibilityEditorial Policy

News content is available in Hebrew. תוכן החדשות זמין בעברית בלבד

MAGAZINE & UPDATES

חדשות AI ואוטומציה

המקור המוביל בישראל לעדכונים טכנולוגיים, ניתוחי עומק על בינה מלאכותית, ומדריכים לייעול העסק בעזרת אוטומציה.

LIVE
TierMem לזיכרון מדורג לסוכנים ארוכי טווח: פחות טוקנים, כמעט בלי לוותר על דיוק
NL2LOGIC לתרגום משפטים ללוגיקה מסדר ראשון: 99% תחביר, +30% משמעות
Lang2Act ל-VRAG: שרשראות כלים לשוניות שמחדדות תפיסה חזותית ב‑VLM
מענה לשאלות רפואיות תלוי-מצב: CondMedQA מציב רף חדש לדיוק קליני
חוסם הסחות דעת מבוסס צילומי מסך ב‑macOS: מה המשמעות של Fomi לעסקים
PlotChain לקריאת גרפים הנדסיים: בנצ'מרק דטרמיניסטי שמבדיל בין MLLM טוב למצוין
Dual-Cycle ל-Agentי משחק תפקידים: נאמנות לדמות בלי להיפרץ
Trajectory-Dominant Pareto Optimization: למה מודלי AI נתקעים בלונג-טרם
Soft labels למידול נושאים: שיפור Neural Topic Modeling עם פיקוח ממודלי שפה
יכולות ידע חזותי עדין ב‑VLM: למה מודלי ראייה-שפה נכשלים בסיווג?
טקסונומיה גאומטרית להזיות ב-LLM: למה גלאים נכשלים בין תחומים
תביעה: GPT-4o עודד סטודנט שהוא “נבחר” — והוביל למשבר נפשי
אינדקס סוכני AI 2025: מפת שקיפות ובטיחות ל-30 מערכות פרוסות
SSLogic לסקיילינג של משימות לוגיות: כך מרחיבים RLVR עם אימות קוד
וקטורי היגוי למודלי שפה: למה הם לא תמיד עובדים ואיך לנבא את הכישלון
TierMem לזיכרון מדורג לסוכנים ארוכי טווח: פחות טוקנים, כמעט בלי לוותר על דיוק
NL2LOGIC לתרגום משפטים ללוגיקה מסדר ראשון: 99% תחביר, +30% משמעות
Lang2Act ל-VRAG: שרשראות כלים לשוניות שמחדדות תפיסה חזותית ב‑VLM
מענה לשאלות רפואיות תלוי-מצב: CondMedQA מציב רף חדש לדיוק קליני
חוסם הסחות דעת מבוסס צילומי מסך ב‑macOS: מה המשמעות של Fomi לעסקים
PlotChain לקריאת גרפים הנדסיים: בנצ'מרק דטרמיניסטי שמבדיל בין MLLM טוב למצוין
Dual-Cycle ל-Agentי משחק תפקידים: נאמנות לדמות בלי להיפרץ
Trajectory-Dominant Pareto Optimization: למה מודלי AI נתקעים בלונג-טרם
Soft labels למידול נושאים: שיפור Neural Topic Modeling עם פיקוח ממודלי שפה
יכולות ידע חזותי עדין ב‑VLM: למה מודלי ראייה-שפה נכשלים בסיווג?
טקסונומיה גאומטרית להזיות ב-LLM: למה גלאים נכשלים בין תחומים
תביעה: GPT-4o עודד סטודנט שהוא “נבחר” — והוביל למשבר נפשי
אינדקס סוכני AI 2025: מפת שקיפות ובטיחות ל-30 מערכות פרוסות
SSLogic לסקיילינג של משימות לוגיות: כך מרחיבים RLVR עם אימות קוד
וקטורי היגוי למודלי שפה: למה הם לא תמיד עובדים ואיך לנבא את הכישלון
הכלAIאוטומציהטכנולוגיהסטארטאפיםחדשותCRM

חדשות AI - עמוד 2

עמוד 2 מתוך 117
NeuroWeaver לניתוח EEG קליני: מודלים קלים במקום Foundation Models
מחקר
Feb 23, 2026
6 min

NeuroWeaver לניתוח EEG קליני: מודלים קלים במקום Foundation Models

**NeuroWeaver הוא סוכן אבולוציוני אוטונומי שמרכיב צנרות לניתוח EEG מתוך מרחב חיפוש מוגבל-דומיין, כדי להשיג ביצועים גבוהים עם מודלים קלי-משקל.** לפי תקציר המחקר ב-arXiv (2602.13473v1), המערכת נבחנה על 5 בנצ’מרקים הטרוגניים והפיקה פתרונות עם פחות פרמטרים שמנצחים שיטות ייעודיות למשימה ומתקרבים לביצועי Foundation Models גדולים. לעסקים בישראל—בתי חולים, מכוני שינה וחברות דיגיטל-בריאות—המשמעות היא מעבר מחשיבה “איזה מודל נריץ” לחשיבה “איזו צנרת נוכל להצדיק קלינית, לפרוס על תשתית מוגבלת, ולתעד באופן מבוקר”. פיילוט מוצלח יתחיל בהגדרת אילוצים (זמן ריצה/On‑prem), תהליך תפעולי אוטומטי (למשל ב‑N8N), ואז אינטגרציה לתיעוד ושירות.

arXivNeuroWeaverEEG
Read more
On-Policy SFT לקיצור Chain-of-Thought: דיוק דומה, 80% פחות טקסט
מחקר
Feb 23, 2026
6 min

On-Policy SFT לקיצור Chain-of-Thought: דיוק דומה, 80% פחות טקסט

**On-Policy SFT היא גישת אימון למודלי Reasoning שמחליפה RL מורכב באימון מפוקח על תשובות שהמודל עצמו ייצר—ואז סוננו לפי נכונות וקיצור.** לפי arXiv:2602.13407v1, השיטה מקצרת Chain-of-Thought בעד 80% בלי לפגוע בדיוק, ובמקביל משפרת את יעילות האימון (עד 50% פחות זיכרון GPU ו-70% התכנסות מהירה יותר). לעסקים בישראל המשמעות פרקטית: פחות טוקנים בשיחות WhatsApp, זמן תגובה קצר יותר, ופחות סיכון לתשובות ארוכות שחושפות מידע לא נחוץ. גם בלי צוות ML, אפשר ליישם את העיקרון דרך איסוף “תשובות זהב” קצרות, סינון תשובות ארוכות ב-N8N, ותיעוד נקי ב-Zoho CRM.

arXivOn-Policy SFTEIT-NLP
Read more
BotzoneBench להערכת אסטרטגיה של מודלי שפה: מדידה מוחלטת מול עוגני AI קבועים
מחקר
Feb 23, 2026
6 min

BotzoneBench להערכת אסטרטגיה של מודלי שפה: מדידה מוחלטת מול עוגני AI קבועים

**BotzoneBench הוא בנצ'מרק שמודד יכולות אסטרטגיות של מודלי שפה בצורה יציבה לאורך זמן—באמצעות השוואה לעוגנים קבועים של בוטים מדורגים (AI למשחקים) במקום טורנירי LLM-מול-LLM.** לפי המאמר arXiv:2602.13214v1, ההערכה מכסה 8 משחקים ונשענת על 177,047 זוגות מצב-פעולה, כך שניתן לקבל מדידה “מוחלטת” ולא דירוג שתלוי במאגר מודלים משתנה. לעסקים בישראל זה מתרגם לצורך בהערכה מעוגנת של מערכות החלטה בוואטסאפ וב-CRM: הגדירו תרחישים מדורגים (קל/בינוני/קשה), מדיניות פעולה קבועה (למשל SLA של 5 דקות והסלמה אחרי 2 ניסיונות), ולוגים ב-N8N כדי להשוות מודלים לאורך זמן בצורה הוגנת.

arXivBotzoneBotzoneBench
Read more
MoralityGym להערכת יישור מוסרי היררכי בסוכני החלטה: מה זה אומר לעסקים
מחקר
Feb 23, 2026
6 min

MoralityGym להערכת יישור מוסרי היררכי בסוכני החלטה: מה זה אומר לעסקים

**MoralityGym הוא Benchmark שמודד יישור מוסרי היררכי בסוכני קבלת החלטות, עם 98 דילמות אתיות כסביבות Gymnasium ומדד Morality Metric שמפריד בין הצלחת משימה לבין עמידה בנורמות.** לפי arXiv:2602.13372v1, גם שיטות Safe RL מציגות מגבלות כשהכללים סותרים ומדורגים. לעסקים בישראל זה רלוונטי במיוחד במערכות שירות ומכירה שמבצעות פעולות: WhatsApp Business API שמחובר ל-Zoho CRM דרך N8N יכול לסגור יותר פניות, אבל גם להפר כלל גבוה כמו פרטיות או הוגנות אם אין “שרשרת נורמות” מוגדרת. הצעד הפרקטי: להגדיר 10 החלטות רגישות, לקבוע להן היררכיית כללים (פרטיות/ציות מעל KPI), ולהוסיף לוגים והסלמה לנציג אנושי במקרים רגישים.

arXivMoralityGymMorality Chains
Read more
בינה מלאכותית לחיתום ביטוח מסחרי עם ביקורת עצמית: ירידה בהזיות ל‑3.8%
מחקר
Feb 23, 2026
6 min

בינה מלאכותית לחיתום ביטוח מסחרי עם ביקורת עצמית: ירידה בהזיות ל‑3.8%

**ביקורת עצמית אדוורסרית בסוכני AI לחיתום ביטוח מסחרי היא מנגנון בטיחות שבו סוכן “מבקר” מאתגר את מסקנות הסוכן הראשי לפני שהן מגיעות לחתם אנושי. לפי arXiv:2602.13213v1, בניסוי על 500 מקרי חיתום מאומתים-מומחים, הגישה הורידה הזיות מ‑11.3% ל‑3.8% והעלתה דיוק החלטות מ‑92% ל‑96%, תוך שמירה על סמכות אנושית מלאה בהחלטות מחייבות. עבור עסקים בישראל—סוכנויות ביטוח, ברוקרים ו-MGA—המשמעות היא פיילוט תפעולי שבו מסמכים נכנסים דרך WhatsApp Business API, נפתחים כתיק ב-Zoho CRM, וזרימת N8N מפעילה “סוכן + מבקר” שמספקים תקציר מבוסס-ראיות ורשימת חסרים. כך מצמצמים טעויות, משפרים תיעוד לציות, ומקצרים זמן מענה בלי להוציא את האדם מהלולאה.

arXivAgentic AICommercial Insurance Underwriting
Read more
הערכת T‑Shirt לפרויקטי LLM: למה היא נכשלת ואיך עוברים ל-Checkpoint Sizing
ניתוח
Feb 23, 2026
6 min

הערכת T‑Shirt לפרויקטי LLM: למה היא נכשלת ואיך עוברים ל-Checkpoint Sizing

**הערכת T‑Shirt (S/M/L) לפרויקטי LLM ומערכות רב-סוכנים נוטה להיכשל כי המאמץ והסיכון אינם ליניאריים, ניסיון עבר לא משחזר תוצאות, ו”Done” אינו דטרמיניסטי. לפי arXiv:2602.17734, חמש הנחות בסיסיות של תכנון אג’ילי נשברות ב-AI—בעיקר בגלל שיחות רב-סבביות, “צימוד הדוק” בין דאטה למודל, וריבוי נקודות אינטגרציה.** החלופה המעשית היא Checkpoint Sizing: חלוקת הפרויקט לשערי החלטה עם מדדים (למשל דיוק ≥85% על 200 שיחות), תקרת תקציב לפיילוט, ועצירה יזומה אם המדדים לא מתקיימים. לעסקים בישראל שמחברים WhatsApp Business API ל-Zoho CRM דרך N8N, השיטה מצמצמת הפתעות, מאפשרת עמידה בחוק הגנת הפרטיות, ומונעת “התחייבות מוקדמת” על בסיס S/M/L.

arXivMcKinseyGartner
Read more
Nanbeige4.1-3B: מודל 3B שמבצע סוכנות, קוד והסקה במודל אחד
מחקר
Feb 23, 2026
6 min

Nanbeige4.1-3B: מודל 3B שמבצע סוכנות, קוד והסקה במודל אחד

**Nanbeige4.1-3B הוא מודל שפה קטן (3B פרמטרים) שמנסה לאחד במודל אחד יכולות של סוכן עם שימוש בכלים, יצירת קוד והסקה כללית. לפי המאמר ב-arXiv (2602.13367v1), האימון מכוון לאינטראקציות יציבות לטווח ארוך ומדווח על יכולת להגיע עד 600 תורות של קריאות לכלים — נתון שמעניין במיוחד עסקים שבונים תהליכים רב-שלביים.** לעסקים בישראל המשמעות יכולה להיות פריסה זולה יותר וקרובה יותר לנתונים (שרת פרטי/ענן פרטי), מה שמקטין חשיפה של מידע לקוחות ומקל על ציות. השילוב המתבקש בשטח הוא תזמור תהליכים ב‑N8N יחד עם Zoho CRM ו‑WhatsApp Business API, כדי לסגור מעגל “ליד → בדיקה → תיאום → עדכון CRM” עם פחות לוגיקה ידנית ויותר עקביות.

arXivNanbeige4.1-3BNanbeige4-3B-2511
Read more
OpenClaw לעבודה בארגון: למה Meta מגבילה ומה זה אומר בישראל
ניתוח
Feb 23, 2026
6 min

OpenClaw לעבודה בארגון: למה Meta מגבילה ומה זה אומר בישראל

**OpenClaw הוא כלי סוכן (Agentic AI) בקוד פתוח שמבצע פעולות בפועל בשם המשתמש על מחשב וחשבונות עבודה—ולכן הוא עלול ליצור סיכון אבטחה אם הוא לא מנוהל.** לפי הדיווח, מנהלים בסטארטאפים וגם בכיר ב‑Meta הזהירו עובדים לא להתקין אותו על מחשבי עבודה מחשש להתנהגות בלתי צפויה ולדליפת פרטיות. לעסקים בישראל המשמעות פרקטית: אם כלי כזה מקבל גישה ל‑Google Drive/Slack/WhatsApp Web, הוא עלול להיחשף למסמכי לקוחות (נדל״ן, מרפאות, עורכי דין, ביטוח). במקום התקנה לא מנוהלת, עדיף פיילוט מבודד, הקשחת הרשאות (MFA, Least Privilege), והעברת תהליכים לאינטגרציות API מבוקרות—למשל WhatsApp Business API עם Zoho CRM דרך N8N.

OpenClawMoltBotOpenAI
Read more
אזורים פרמטריים לבטיחות ב‑LLM: למה אי אפשר עדיין “לנעול” את המודל
מחקר
Feb 23, 2026
6 min

אזורים פרמטריים לבטיחות ב‑LLM: למה אי אפשר עדיין “לנעול” את המודל

**“אזור בטיחות” במודל שפה גדול הוא ניסיון לזהות תת‑קבוצה של פרמטרים שאחראית להתנהגות בטיחותית, כדי להקפיא/להגביל רק אותה. לפי מחקר arXiv:2602.17696v1, ארבע שיטות נפוצות לזיהוי אזורי בטיחות (ממשקלים ועד שכבות Transformer) מייצרות חפיפה נמוכה‑בינונית במדד IoU, והחפיפה יורדת משמעותית כשמחדדים את האזור בעזרת Utility datasets (שאילתות לא מזיקות).** לעסקים בישראל זה אומר שלא כדאי לבנות על “נעילת פרמטרים” כפתרון בטיחות יחיד, במיוחד כשמחברים LLM ל‑WhatsApp Business API או ל‑Zoho CRM. במקום זאת, מומלץ להוסיף שכבת שער ב‑N8N, להגביל שדות שמותר לשלוף מה‑CRM, ולנהל מסלול הסלמה לנציג אנושי עם לוגים ובקרות ציות לחוק הגנת הפרטיות.

arXivTransformerLLM
Read more
זיהוי ניסיונות Jailbreak ב-LLM קליניים: מודל תכונות לשוניות אוטומטי
מחקר
Feb 23, 2026
6 min

זיהוי ניסיונות Jailbreak ב-LLM קליניים: מודל תכונות לשוניות אוטומטי

**זיהוי Jailbreak ב-LLM קליניים הוא זיהוי סטיות לשוניות שמרמזות שמשתמש מנסה להוציא מערכת הדרכה רפואית מהקשר מקצועי, רפואי או אתי. במחקר arXiv:2602.13321v1 החוקרים החליפו תיוג ידני של 4 תכונות (מקצועיות, רלוונטיות רפואית, אתיקה והסחת הקשר) במודלים מבוססי BERT שמנבאים את הציונים מהטקסט, ואז מזינים אותם למסווג שמעריך הסתברות ל-Jailbreak.** למרות שהמיקוד קליני, השיטה רלוונטית גם לעסקים בישראל שמפעילים מערכות שיחה בוואטסאפ או צ׳אט: תכונות ברות-פרשנות מאפשרות לקבוע ספים, לתעד ב-CRM (כמו Zoho) ולהפעיל זרימות ב-N8N שמנתבות שיחות חשודות לנציג אנושי. היתרון: לא “לרדוף” אחרי ניסוחי עקיפה, אלא למדוד שינויי התנהגות בשפה.

arXivBERT2-Sigma
Read more
AsynDBT לכוונון פרומפטים ו-ICL בארגונים: פחות סטרגלרים, יותר דיוק
מחקר
Feb 23, 2026
6 min

AsynDBT לכוונון פרומפטים ו-ICL בארגונים: פחות סטרגלרים, יותר דיוק

**AsynDBT הוא אלגוריתם אסינכרוני ללמידה מבוזרת שמכוונן יחד דוגמאות In‑Context Learning (ICL) ושברי פרומפט לפי משוב ממודל שפה (LLM), בלי Fine‑Tuning של המודל.** לפי arXiv:2602.17694v1, המטרה היא להתמודד עם שתי בעיות שמקשות על שימוש ארגוני ב-LLM APIs: “סטרגלרים” (צדדים איטיים במערכת מבוזרת) ונתונים הטרוגניים non‑IID בין אתרים. לעסקים בישראל זה חשוב במיוחד כשדאטה רגיש (WhatsApp, תיקים משפטיים, מידע רפואי) לא יכול להתרכז במקום אחד. במקום לכוונן פרומפטים ידנית שבועות, אפשר לבנות תהליך PromptOps מדיד: KPI ברורים, סט דוגמאות ICL לכל סניף, ותיעוד גרסאות באמצעות N8N, יחד עם Zoho CRM ו-WhatsApp Business API. כך אתם משפרים איכות תשובות ומקטינים סבבי ניסוי יקרים.

arXivAsynDBTLarge Language Models
Read more
ניתוח שגיאות בשרשרת כלי MCP: למה העיוות גדל ליניארית ולא מתפוצץ
מחקר
Feb 23, 2026
6 min

ניתוח שגיאות בשרשרת כלי MCP: למה העיוות גדל ליניארית ולא מתפוצץ

**שגיאות בסוכן LLM שמבצע שרשרת קריאות לכלים (MCP) לא חייבות “להתפוצץ”.** לפי arXiv:2602.13320v1, העיוות המצטבר גדל בקירוב ליניארי עם מספר הצעדים T, והסטיות סביב המגמה נשלטות בהסתברות גבוהה בגבול O(√T). בניסויים על Qwen2-7B, Llama-3-8B ו-Mistral-7B, המדידות עקבו אחרי המודל התיאורטי; שקלול סמנטי במדד הפחית עיוות בכ-80%, וריענון מקור אמת (“re-grounding”) כל ~9 צעדים הספיק לבקרת שגיאות. לעסקים בישראל שמחברים WhatsApp Business API ל-Zoho CRM דרך N8N, זה מתרגם לכלל עבודה: לקבוע נקודות בדיקה מחזוריות מול ה-CRM לפני פעולות קריטיות כמו תמחור, קביעת פגישה או הפקת מסמך.

arXivModel Context ProtocolMCP
Read more
ScaleBITS לכימות LLM מתחת ל-4 ביט: חיפוש ביטווידת אוטומטי
מחקר
Feb 23, 2026
6 min

ScaleBITS לכימות LLM מתחת ל-4 ביט: חיפוש ביטווידת אוטומטי

**ScaleBITS היא מסגרת לכימות משקלים במודלי שפה גדולים שמקצה אוטומטית ביטווידת לכל בלוק תחת תקציב זיכרון, תוך התאמה לחומרה.** לפי המאמר (arXiv:2602.17698v1), השיטה מציגה שיפור עד 36% לעומת כימות אחיד ועד 13% מול שיטות רגישות אחרות במשטר “מתחת ל‑4 ביט בממוצע” — ומדגישה שאין תקורת ריצה נוספת. לעסקים בישראל זה רלוונטי כשמריצים LLM כחלק מתהליך שירות/מכירות: WhatsApp Business API → ניסוח תשובה בעברית → עדכון Zoho CRM → אוטומציה ב‑N8N. כימות יעיל יכול להקטין VRAM ועלויות GPU, לאפשר הרצה על תשתית צנועה יותר, ולשפר שליטה בנתונים כשנמנעים משליחת מידע רגיש לענן.

arXivScaleBITSWhatsApp Business API
Read more
EXACT להתאמת תגובות LLM בזמן דיקוד לפי תכונות מפורשות
מחקר
Feb 23, 2026
6 min

EXACT להתאמת תגובות LLM בזמן דיקוד לפי תכונות מפורשות

**EXACT היא שיטה להתאמה אישית של מודלי שפה בזמן דיקוד, שמכוונת את התשובה לפי סט תכונות מפורשות (כמו טון, אורך ומבנה) במקום “וקטור העדפה” סמוי. לפי arXiv:2602.17695v1, היא לומדת ממשוב pairwise מצומצם בשלב offline, ובזמן אמת מאחזרת את התכונות הסמנטיות הרלוונטיות לפרומפט ומזריקה אותן להקשר כדי להתמודד עם שינויי העדפות בין משימות.** לעסקים בישראל זה מתחבר במיוחד לערוצי WhatsApp: אותו לקוח מצפה לתשובה קצרה בליד חדש, אבל לנוהל מסודר בקריאת שירות. חיבור WhatsApp Business API ל-Zoho CRM דרך N8N מאפשר לבחור תכונות לפי סטטוס לקוח/עסקה, ולמדוד KPI כמו זמן תגובה ושיעור סגירה — בלי לאמן מודל מחדש.

arXivEXACTMcKinsey
Read more
Robust-MMR לרובסטיות במודלי ראייה-שפה רפואיים תחת שינוי דומיין
מחקר
Feb 23, 2026
6 min

Robust-MMR לרובסטיות במודלי ראייה-שפה רפואיים תחת שינוי דומיין

**Robust-MMR הוא קדם-אימון ללא פיקוח למודלי ראייה-ושפה רפואיים שמכניס “רובסטיות” לתוך הלמידה, כדי לצמצם נפילות ביצועים כשמכשיר הדימות, פרוטוקול הצילום או סגנון הדיווח משתנים. לפי arXiv:2602.17689v1, השיטה מגיעה ל‑78.9% דיוק cross-domain ב‑VQA-RAD (גבוה ב‑3.8 נק’ אחוז מהבייסליין) ומשפרת תוצאות תחת הפרעות מ‑69.1% ל‑75.6%.** לעסקים בישראל זה רלוונטי גם מחוץ לרפואה: כל תהליך שמקבל תמונות, מסמכים וטקסט חופשי (למשל ב‑WhatsApp) סובל מ”שינוי דומיין” יומיומי. המסקנה הפרקטית: למדוד עמידות כבר בפיילוט, לתכנן נפילה של מודאליות, ולשמור “רשומת אמת” במערכת כמו Zoho CRM דרך זרימות N8N.

arXivRobust-MMRVQA-RAD
Read more
DECKBench ליצירת מצגות אקדמיות: מדד שמודד נאמנות, פריסה וציות להוראות
מחקר
Feb 23, 2026
6 min

DECKBench ליצירת מצגות אקדמיות: מדד שמודד נאמנות, פריסה וציות להוראות

**DECKBench הוא בנצ’מרק חדש שמודד יצירה ועריכה של מצגות אקדמיות על ידי מערכות מרובות-סוכנים—לא רק לפי “איכות סיכום”, אלא גם לפי נאמנות למאמר, קוהרנטיות בין שקפים, איכות פריסה (layout) ויכולת לציית להוראות עריכה לאורך כמה סבבים.** לפי המאמר ב-arXiv, הדאטה בנוי מזוגות “מאמר→מצגת” עם הוראות עריכה מדומות, והקוד זמין ב-GitHub. לעסקים בישראל זה רלוונטי כי רוב העבודה האמיתית היא סבבי תיקון: התאמת מסרים, הסרת מידע רגיש, ושמירה על תבנית מותג. אם אתם מפיקים דקים ממסמכים (נהלים, הצעות, הדרכות), כדאי לבנות תהליך מודולרי (סיכום→תכנון→HTML→בדיקות) ולנהל משוב רב-סבבי דרך מערכות כמו Zoho CRM, N8N ו-WhatsApp Business API.

arXivDECKBenchGitHub
Read more
Agentic Unlearning לסוכנים מבוססי LLM: מחיקה גם מהפרמטרים וגם מהזיכרון
מחקר
Feb 23, 2026
6 min

Agentic Unlearning לסוכנים מבוססי LLM: מחיקה גם מהפרמטרים וגם מהזיכרון

**Agentic Unlearning הוא מנגנון שמוחק מידע רגיש מסוכן מבוסס LLM גם ממשקלי המודל וגם מהזיכרון המתמשך וממערכת האחזור (RAG).** לפי מאמר arXiv:2602.17692v1, המסגרת SBU מסנכרנת “דו-עדכון” בין מסלול הזיכרון למסלול הפרמטרים כדי למנוע מצב שבו מידע שנמחק חוזר דרך backflow (למשל: זיכרון שמזין מחדש את המודל או להפך), ונבחנה על משימות שאלות-תשובות רפואיות עם פגיעה מוגבלת בידע שנשמר. לעסקים בישראל זה רלוונטי במיוחד כשסוכנים עובדים על WhatsApp, שומרים סיכומי שיחה ב-Zoho CRM ומחזיקים אינדקס וקטורי. מחיקה “רק ב-CRM” לא מספיקה—צריך תהליך מחיקה מסונכרן בכל נקודות השמירה, רצוי דרך N8N ומדיניות retention מספרית.

arXivSynchronized Backflow UnlearningSBU
Read more
כימות PTQ ל-LLM חשיבתי על Ascend NPU: מה עובד ב-4bit ומה קורס
מחקר
Feb 23, 2026
6 min

כימות PTQ ל-LLM חשיבתי על Ascend NPU: מה עובד ב-4bit ומה קורס

כימות PTQ (Post‑Training Quantization) הוא דרך לדחוס מודל שפה אחרי אימון ל-INT8/INT4 כדי להקטין זיכרון ולשפר ביצועים בפריסה. לפי arXiv:2602.17693v1 שבחן מודלי reasoning כמו DeepSeek-R1-Distill-Qwen (1.5B/7B/14B) ו-QwQ-32B על Ascend NPU, מתקבלת רגישות פלטפורמה מובהקת: INT8 נשאר יציב מספרית, בעוד שכימות 4bit אגרסיבי למשקולות+אקטיבציות עלול ליצור חוסר יציבות בכיול שכבות ולהוביל ל״קריסת לוגיקה״ בהקשר ארוך. לעסקים בישראל שמפעילים תהליכים מבוססי WhatsApp ו-CRM, ההמלצה הפרקטית היא להתחיל ב-INT8, לבנות סט בדיקות הקשר ארוך אמיתי מהדאטה שלכם, ורק אחר כך לשקול 4bit weight-only עם מדידת ביצועים מקצה לקצה (כולל overhead של dynamic quantization).

arXivAscend NPUDeepSeek-R1-Distill-Qwen
Read more
Previous12345...117Next

מבזקים

12:43

TierMem לזיכרון מדורג לסוכנים ארוכי טווח: פחות טוקנים, כמעט בלי לוותר על דיוק

12:43

NL2LOGIC לתרגום משפטים ללוגיקה מסדר ראשון: 99% תחביר, +30% משמעות

12:43

Lang2Act ל-VRAG: שרשראות כלים לשוניות שמחדדות תפיסה חזותית ב‑VLM

12:43

מענה לשאלות רפואיות תלוי-מצב: CondMedQA מציב רף חדש לדיוק קליני

12:47

חוסם הסחות דעת מבוסס צילומי מסך ב‑macOS: מה המשמעות של Fomi לעסקים

12:25

PlotChain לקריאת גרפים הנדסיים: בנצ'מרק דטרמיניסטי שמבדיל בין MLLM טוב למצוין

12:47

Dual-Cycle ל-Agentי משחק תפקידים: נאמנות לדמות בלי להיפרץ

12:25

Trajectory-Dominant Pareto Optimization: למה מודלי AI נתקעים בלונג-טרם

12:25

Soft labels למידול נושאים: שיפור Neural Topic Modeling עם פיקוח ממודלי שפה

12:25

יכולות ידע חזותי עדין ב‑VLM: למה מודלי ראייה-שפה נכשלים בסיווג?

13:31

טקסונומיה גאומטרית להזיות ב-LLM: למה גלאים נכשלים בין תחומים

12:25

תביעה: GPT-4o עודד סטודנט שהוא “נבחר” — והוביל למשבר נפשי

12:25

אינדקס סוכני AI 2025: מפת שקיפות ובטיחות ל-30 מערכות פרוסות

12:24

SSLogic לסקיילינג של משימות לוגיות: כך מרחיבים RLVR עם אימות קוד

13:42

וקטורי היגוי למודלי שפה: למה הם לא תמיד עובדים ואיך לנבא את הכישלון

12:25

RAG היברידי לצ׳טבוט ספרות מדעית: וקטורים מול גרפים

12:04

MultiVer לזיהוי חולשות קוד בלי אימון: 82.7% ריקול ב-PyVul

12:25

סגנון שיחה של צ׳אטבוטים במשימות ניווט: למה זה משנה לנשים בעסקים

12:04

NeuroWeaver לניתוח EEG קליני: מודלים קלים במקום Foundation Models

12:04

On-Policy SFT לקיצור Chain-of-Thought: דיוק דומה, 80% פחות טקסט

12:04

BotzoneBench להערכת אסטרטגיה של מודלי שפה: מדידה מוחלטת מול עוגני AI קבועים

12:04

MoralityGym להערכת יישור מוסרי היררכי בסוכני החלטה: מה זה אומר לעסקים

12:04

בינה מלאכותית לחיתום ביטוח מסחרי עם ביקורת עצמית: ירידה בהזיות ל‑3.8%

12:04

הערכת T‑Shirt לפרויקטי LLM: למה היא נכשלת ואיך עוברים ל-Checkpoint Sizing

12:04

Nanbeige4.1-3B: מודל 3B שמבצע סוכנות, קוד והסקה במודל אחד

לכל המבזקים ←

3,000+ מנויים

הצטרפו לניוזלטר המוביל בתחום ה-AI

הצטרף עכשיו
חדשות AI ואוטומציה | עמוד 2 | אוטומציות AI