גוגל חושפת אמצעי אבטחה מתקדמים לתכונות אג'נטיות בכרום
חדשות

גוגל חושפת אמצעי אבטחה מתקדמים לתכונות אג'נטיות בכרום

דפדפן כרום מקדם יכולות AI אוטונומיות שמבצעות פעולות בשמך, אך גוגל מבטיחה הגנה מפני סיכונים עם מבקרי פיקוח ומגבלות גישה

AI
אוטומציות AI
3 דקות קריאה

תקציר מנהלים

נקודות עיקריות

  • User Alignment Critic מבוסס Gemini מפקח על תוכניות פעולה ומתקן סטיות

  • Agent Origin Sets מונעים גישה לא מורשית ודליפות נתונים חוצות אתרים

  • אישור משתמש נדרש לפעולות רגישות כמו רכישות ובנקאות

  • מסווג הזרקת פרומפטים ובדיקות התקפות מחזקות את ההגנה

בעידן שבו סוכני AI עתידים לבצע הזמנות כרטיסים או קניות בשמך, גוגל חושפת את אסטרטגיית האבטחה שלה לכרום. התכונות האג'נטיות, שיושקו בחודשים הקרובים, כוללות סיכונים כמו דליפת נתונים או אובדן כספים. כדי להתמודד עם אתגרים אלה, גוגל משלבת דגמי מבקר (observer models) ומנגנוני הסכמה משתמשים, שמבטיחים שהסוכנים פועלים בהתאם לכוונותיך. גוגל בנתה את User Alignment Critic על בסיס Gemini, שמפקח על תוכניות הפעולה של דגם התכנון. אם המבקר מזהה סטייה ממטרת המשתמש, הוא דורש תיקון. חשוב לציין: המבקר רואה רק מטא-נתונים של הפעולות, ללא תוכן האתר עצמו. כך נשמרת פרטיות המשתמש תוך שמירה על יעילות. למניעת גישה לאתרים לא מורשים, גוגל מיישמת Agent Origin Sets, שמגבילים את הסוכן למקורות קריאה-בלבד (read-only) ולמקורות קריאה-כתיבה. לדוגמה, באתר קניות, הסוכן יכול לצרוך רשימות מוצרים אך לא פרסומות. מגבלה זו מונעת דליפות נתונים חוצות מקורות ומאפשרת לדפדפן לסנן תוכן מראש. בנוסף, גוגל מפקחת על ניווט דפים באמצעות דגם מבקר נוסף שבודק כתובות URL ומנענע ניווטים מזיקים שנוצרו על ידי המודל. למשימות רגישות כמו גישה לבנקאות או נתונים רפואיים, הסוכן מבקש אישור משתמש ראשון. גם להזנת סיסמאות ממנהל הסיסמאות נדרש הסכמה מפורשת, ללא חשיפת הסיסמאות למודל. החברה מדגישה כי לפני רכישות או שליחת הודעות, המשתמש מקבל שליטה מלאה. גוגל משלבת גם מסווג הזרקת פרומפטים (prompt-injection classifier) ומבצעת בדיקות נגד התקפות שפותחו על ידי חוקרים. גישה זו משקפת מגמה רחבה יותר בתעשייה, שבה יצרני דפדפנים AI מתמודדים עם סיכונים חדשים. למנהלי עסקים ישראלים, תכונות אג'נטיות בכרום פותחות אפשרויות אוטומציה, אך מחייבות זהירות. השילוב בין פיקוח AI להסכמה אנושית מאזן בין נוחות לביטחון, ומאפשר אימוץ בטוח יותר. כיצד זה ישפיע על כלים עסקיים מקומיים?

שאלות ותשובות

שאלות נפוצות

אהבתם את הכתבה?

הירשמו לניוזלטר שלנו וקבלו עדכונים חמים מעולם ה-AI ישירות למייל

עוד כתבות שיעניינו אותך

לכל הכתבות
OpenAI בנתה סוכן קידוד AI שמשפר את עצמו
חדשות
3 דקות

OpenAI בנתה סוכן קידוד AI שמשפר את עצמו

OpenAI משתמשת בסוכן הקידוד Codex שלה כדי לבנות ולשפר אותו עצמו – חשיפה מרשימה מראיון עם ראש המוצר. הסוכן החדש, שהושק במאי 2025, מנהל משימות פיתוח מורכבות ומשולב בכלים פופולריים. קראו עכשיו על ההשלכות לעסקים ישראליים.

OpenAICodexAlexander Embiricos
קרא עוד
צו טראמפ לבינה מלאכותית מבטיח 'ספר חוקים אחד' – סטארטאפים עלולים להיתקע במערבולת משפטית
חדשות
3 דקות

צו טראמפ לבינה מלאכותית מבטיח 'ספר חוקים אחד' – סטארטאפים עלולים להיתקע במערבולת משפטית

טראמפ חתם על צו נשיאותי שמאתגר חוקי AI מדינתיים ומבטיח רגולציה פדרלית אחידה. מומחים מזהירים: סטארטאפים יסבלו מאי-ודאות משפטית ממושכת. קראו את הניתוח המלא.

Donald TrumpDavid SacksTechCrunch
קרא עוד