אנתרופיק
צילום: טוויטר

המבחן המסוכן של קלוד: האם מודל ה-AI החדש עלול לסייע ביצירת נשק ביולוגי?

אנתרופיק משיקה את Claude Opus 4 עם שכבת הגנה חסרת תקדים, לאחר שהמודל הפגין יכולות מסוכנות במיוחד בהכוונת משתמשים ליצירת נשק ביולוגי "אנחנו לא בטוחים שזה מסוכן, אבל גם לא יכולים לשלול את זה"

אביחי טדסה | (1)

חברת הבינה המלאכותית אנתרופיק (Anthropic) ניצבת בפני המבחן החמור ביותר שלה עד כה: האם ניתן לשחרר מודל AI עוצמתי במיוחד, כזה שלפי בדיקות פנימיות מסוגל לסייע למתחילים בבניית נשק ביולוגי, מבלי לסכן את שלום הציבור? לאחר השקה מוגבלת של Claude Opus 4, החברה חושפת מערכת הגנה חדשה ברמת סיכון גבוהה במיוחד, מתוך ניסיון לאזן בין חדשנות עסקית לאחריות מוסרית בעולם הטכנולוגיה.


Claude Opus 4, הגרסה החדשה ביותר של המודל של Anthropic, נבחן ונמצא יעיל יותר מקודמיו (ואף מגוגל) בזיהוי והכוונה של משתמשים חסרי רקע מקצועי לצעדים שעלולים להוביל לייצור נשק ביולוגי. בעקבות כך, המודל מושק תחת הגדרה של "רמת בטיחות 3" (ASL-3), הכוללת אמצעים מתקדמים כמו חסימת ניסיונות לעקוף את ההגנות, מערכות AI פנימיות שמזהות שאלות חשודות, וחומת סייבר שנועדה להרתיע אפילו תוקפים ברמה מדינתית.


אחד הכלים המרכזיים נקרא "מסווגים חוקתיים", מערכות פנימיות הבודקות בזמן אמת את השאלות שמוזנות למודל ואת התשובות שהוא מספק, במטרה לאתר דפוסים של ניסיונות לפתח נשק. Anthropic מודה שלא כל שימוש בעייתי נחסם, אך המיקוד הוא באותם תרחישים העלולים לגרום לנזק נרחב כמו מגפה עולמית.


האם חברות יכולות באמת לרסן את עצמן?


המהלך כולו מבוסס על מדיניות פנימית וולונטרית בשם "מדיניות ההתרחבות האחראית" (RSP), שמחייבת את החברה לבדוק את עצמה לפני שחרור מודלים מסוכנים. עם זאת, אין גוף רגולטורי שמפקח על היישום, מה שמעורר שאלות בנוגע לאמינות ולגבולות ההתחייבות. לדברי ג'ארד קפלן, המדען הראשי של Anthropic, המודל לא בהכרח מסוכן, אבל לא ניתן לשלול את הסיכון, ולכן ננקטת גישה של "הטיית זהירות".


לדבריו, החברה מבינה שהגנה מושלמת אינה קיימת, אך מאמינה כי ריבוי שכבות ההגנה מפחית את רוב הסיכונים. בין היתר, היא מפעילה תוכנית בונוסים למשתמשים שיאתרו פרצות, אחת מהן כבר נחשפה ותוקנה, והביאה למאתר פרס של 25 אלף דולר. קפלן לא מסתיר את החששות: "רוב הפעולות המסוכנות שמחבל יכול לבצע גורמות לנפגעים בודדים. אבל מגפה ביולוגית? כבר ראינו מה קרה עם הקורונה".



ההתקדמות המהירה בתחום הבינה המלאכותית הביאה לפריצות דרך משמעותיות, אך גם לדאגה גוברת מהסיכונים הטמונים בטכנולוגיה רבת עוצמה זו. מודלים חדשים הופכים לחזקים יותר ונגישים יותר לציבור, אך נכון להיום, ברוב מדינות העולם עדיין לא קיימת רגולציה מחייבת או אכיפה ממשלתית סדורה שתפקח על רמות הסיכון או תגדיר כללים ברורים לשחרור של מודלים מתקדמים. חלק מהמדינות החלו בתהליכים רגולטוריים, כמו חוק ה-AI באיחוד האירופי שצפוי להיכנס לתוקף בהדרגה אך בפועל, האחריות לשמירה על הבטיחות מוטלת כיום על כתפי החברות עצמן. במציאות תחרותית שבה כל עיכוב עלול לעלות במעמד ובכסף, השאלה המרכזית היא עד כמה ניתן לסמוך על שיקול דעתן של אותן חברות

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    בסוף יתנו ל AI להשמיד את כל העולם ממש כמו בסרטים. (ל"ת)
    אנונימי 26/05/2025 15:37
    הגב לתגובה זו