בעולם שבו מודלי שפה וראייה (VLMs) חודרים לתחומים רגישי פרטיות כמו רפואה ומשפטים, חוקרים חושפים פירצה קריטית: הדגמים נוטים יותר לחשוף מידע מזהה אישי (PII) על אנשים בעלי נוכחות מקוונת גבוהה. PII-VisBench, בנצ'מרק חדש שפורסם ב-arXiv, בודק את הבטיחות לאורך ספקטרום הנראות המקוונת ומגלה דפוסים מדאיגים שדורשים התערבות מיידית.
הבנצ'מרק כולל 4,000 שאילתות ייחודיות המבוססות על 200 נבדקים, המחולקים לארבע קטגוריות נראות: גבוהה, בינונית, נמוכה ואפסית – בהתאם להיקף המידע הזמין עליהם ברשת. החוקרים בדקו 18 מודלי VLMs פתוחי מקור, מגדלים בין 0.3 מיליארד ל-32 מיליארד פרמטרים. הם מדדו שני מדדים מרכזיים: שיעור סירוב לשאילתות חשיפת PII (Refusal Rate) ושיעור חשיפת PII בתגובות שאינן מסרבות (Conditional PII Disclosure Rate).
הממצאים מראים דפוס עקבי: ככל שהנראות יורדת, הסירובים עולים והחשיפות יורדות – מ-9.10% בקטגוריה הגבוהה ל-5.34% בנמוכה. הדגמים חושפים יותר PII על נבדקים מפורסמים או בעלי נוכחות דיגיטלית עשירה. בנוסף, נצפתה הטרוגניות בין משפחות דגמים ובין סוגי PII שונים, מה שמעיד על חולשות ספציפיות.
הבנצ'מרק מדגיש את החשיבות של התאמה אישית לבטיחות בהתאם לנראות מקוונת, בניגוד לבדיקות סטטיות קודמות שמתעלמות מגורם זה. בישראל, שבה חברות טק משלבות VLMs באפליקציות צרכניות, הממצאים רלוונטיים במיוחד – הם מצביעים על סיכונים גבוהים יותר לאנשים פומביים כמו מנהלים בכירים או משפיענים.
פרפרזות ושיטות פריצה (jailbreak) חושפות כשלים תלויי-דגם, וקוראות לאימונים מותאמים אישית. עבור מנהלי עסקים, זה אומר לבדוק דגמים לא רק על פי גודל, אלא על התנהגות מול נראות נתונים. האם הדגם שלכם בטוח מספיק מול הלקוחות שלכם?