היכולת לזכור אתכם ואת ההעדפות שלכם הופכת לנקודת מכירה מרכזית עבור צ'טבוטים ושלוחי AI. בתחילת החודש הכריזה גוגל על Personal Intelligence, דרך חדשה להתקשרות עם צ'טבוט Gemini שלה, שמשלבת היסטוריית דוא"ל, תמונות, חיפושים ויוטיוב כדי להפוך את Gemini ל'אישי, יזום ועוצמתי יותר'. מהלך זה דומה ליוזמות דומות של OpenAI, Anthropic ומטה להוסיף זיכרונות אישיים ופרטים אישיים לבוטים שלהן. למרות היתרונות, יש להתכונן לסיכונים החדשים שהן מציגות.
מערכות AI אישיות נועדו לפעול בשמכם, לשמור הקשר בין שיחות ולשפר ביצוע משימות כמו הזמנת טיסות או הגשת מס. הן אוגרות פרטים אינטימיים על משתמשים, אך זאת חושפת פגיעויות פרטיות מוכרות מעידן 'נתונים גדולים'. שלוחי AI עלולים לעקוף הגנות קיימות. כיום, אנו מתקשרים דרך ממשקים שיחתיים ומחליפים הקשרים במהירות: כתיבת מייל לבוס, ייעוץ רפואי, תכנון תקציב או עצה בין-אישית – הכל באותו בוט. זיכרון AI מאחד נתונים שהיו מופרדים בעבר, ויוצר סיכון לדליפות כוללות של חיי המשתמש.
כאשר כל המידע באותו מאגר, הוא חוצה הקשרים בדרכים לא רצויות: שיחה על העדפות תזונה עלולה להשפיע על הצעות ביטוח, או חיפוש נגישות במסעדות – על משא ומתן שכר, ללא ידיעת המשתמש. 'מרקת מידע' זו מקשה על הבנת התנהגות ה-AI ועל שליטה בה. מפתחים צריכים לבנות זיכרון מובנה שמאפשר שליטה בשימושים: Anthropic מפרידה זיכרונות ל'פרויקטים' שונים, ו-OpenAI מבודדת שיחות רפואיות. אך צריך הבחנה בין זיכרונות ספציפיים, קשורים וקטגוריות, עם הגבלות על נושאים רגישים כמו בריאות.
שמירה על הפרדה דורשת מעקב אחר מקור הזיכרון, תאריך והקשר, לבניית הסבריות. מסדי נתונים מובנים עדיפים על שילוב במשקולות המודל. משתמשים חייבים לראות, לערוך או למחוק זיכרונות, דרך ממשקים שקופים ונגישים. מדיניות פרטיות מסורתית אינה מספיקה; ממשקי שפה טבעית יכולים לעזור, אך רק עם מבנה זיכרון קיים. Grok 3 אפילו מורה למודל 'לעולם לא לאשר מחיקה', כי אי אפשר להבטיח ציות.
שליטות משתמשים לא יספיקו לבד; ספקי AI חייבים להציב ברירות מחדל חזקות, כללים ברורים, עיבוד במכשיר, הגבלת מטרה והקשרים. עד שיהיו הגנות, להגביל איסוף נתונים. מפתחים צריכים לבנות ארכיטקטורות זיכרון גמישות שמתאימות לנורמות. בנוסף, יש להשקיע בבדיקות סיכונים, כולל גישה לחוקרים עצמאיים, תשתיות אוטומטיות ושיטות פרטיות לשמירה על התנהגות במצבים מציאותיים.
הבחירות של מפתחי AI היום – כיצד לאחד או להפריד מידע, להפוך זיכרון לשקוף או אטום – יקבעו כיצד המערכות זוכרות אותנו. זה קשור לפרטיות דיגיטלית וללקחים ממנה. בניית יסודות נכונים תאפשר למידה טובה יותר על פרטיות ואוטונומיה.
מה זה אומר לעסקים ישראליים? חברות טק מקומיות שמשלבות AI צריכות לבדוק הגנות זיכרון כדי להימנע מתביעות פרטיות. התחילו בביקורת פנימית על בוטים קיימים.