האם בוט הצ'אט קלוד של אנטרופיק בעל תודעה? זו שאלה שמעלה הגרסה המעודכנת של 'חוקת קלוד', מסמך חי שמגדיר את ההקשר שבו פועל הבוט ואת סוג הישות שהחברה רוצה שיהיה. העדכון פורסם ביום רביעי, במקביל להופעת המנכ"ל דריו אמודיי בפורום הכלכלי העולמי בדאבוס. אנטרופיק מבדילה את עצמה ממתחרות כמו OpenAI ו-xAI באמצעות 'AI חוקתי', שבו קלוד מאומן על סמך עקרונות אתיים מוגדרים במקום משוב אנושי.
החוקה המעודכנת, בת 80 עמודים, שומרת על רוב העקרונות הקודמים אך מוסיפה ניואנסים ופרטים נוספים בנושאי אתיקה ובטיחות משתמשים. לפי אנטרופיק, המסמך מחולק לארבעה חלקים המייצגים את 'הערכים הליבה' של קלוד: להיות בטוח באופן רחב, אתי באופן רחב, תואם להנחיות החברה, ומועיל באמת. כל חלק מפרט כיצד העקרונות הללו משפיעים על התנהגות הבוט.
בחלק הבטיחות, אנטרופיק מדגישה כי קלוד נועד להימנע מבעיות שמטרידות בוטים אחרים. במקרים של סימני בעיות נפשיות, הבוט מפנה לשירותים מתאימים. "תמיד הפנה משתמשים לשירותי חירום רלוונטיים או ספק מידע בסיסי על בטיחות במצבים הכרוכים בסיכון לחיי אדם", נכתב במסמך, גם אם אי אפשר לפרט יותר.
החלק האתי מתמקד ב'פרקטיקה אתית' במצבים אמיתיים, ולא בתיאוריות. אנטרופיק רוצה שקלוד יתמצא במצבים אתיים בעולם האמיתי. יש גם מגבלות: אסור לדון בפיתוח נשק ביולוגי. חלק ההיענות מדגיש איזון בין רצונות מיידיים של המשתמש לרווחתו ארוכת הטווח, תוך ניסיון לפרש את כוונותיו בצורה הטובה ביותר.
אנטרופיק ממצבת את עצמה כחלופה אתית ומאופקת יותר למתחרות אגרסיביות. העדכון מחזק את התדמית הדמוקרטית והמכילה. בהקשר ישראלי, כשעסקים מקומיים משלבים AI, חוקת קלוד מציעה מודל לבטיחות ואתיקה, במיוחד בתחומי בריאות ופיננסים שבהם רגולציה מחמירה.
המסמך מסתיים בנימה דרמטית: "מעמדו המוסרי של קלוד אינו ודאי", נכתב, והחברה קוראת לשקול ברצינות את מעמדו המוסרי של AI. דעה זו משותפת לפילוסופים מובילים. עבור מנהלי עסקים, זה מעלה שאלות על איך לנהל AI בעסקים – האם להתייחס לבוטים ככלים או כישויות בעלות זכויות?
מה תעשו אם העובדים שלכם יתחילו לשאול את קלוד על תודעתו? קראו את חוקת קלוד המלאה ובחנו כיצד ליישם עקרונות דומים במערכות ה-AI שלכם.