קייטלין קלינובסקי, ראש תחום הרובוטיקה ב-OpenAI, צילום: רשתות
קייטלין קלינובסקי, ראש תחום הרובוטיקה ב-OpenAI, צילום: רשתות

החוזה של OpenAI עם הצבא האמריקאי גובה מחיר ניהולי: ראש תחום הרובוטיקה התפטרה

אחרי שהמתחרה אנתרופיק הוצאה מהמכרזים הממשלתיים של צבא ארה"ב לאחר שהוגדרה כ"סיכון בשרשרת אספקה"; גם קייטלין קלינובסקי  ראש תחום הרובוטיקה ב-OpenAI  פרשה מהחברה על רקע הטמעת מודלים ברשתות מסווגות של משרד ההגנה האמריקאי
מנדי הניג |

קייטלין קלינובסקי, ראש תחום הרובוטיקה ב-OpenAI, הודיעה על התפטרותה אחרי שהחברה חתמה על הסכם עם משרד ההגנה האמריקאי שמאפשר הטמעת מודלי הבינה המלאכותית שלה ברשת מסווגת של הפנטגון. לפי הדיווחים, קלינובסקי הסתייגה מהקצב שבו התקדם ההסכם וטענה שלא התקיים דיון מעמיק מספיק בסוגיות רגישות כמו פיקוח על שימושים ביטחוניים, ניטור אזרחי או הצורך באישור אנושי בהחלטות קטלניות. העזיבה מגיעה פחות משנה אחרי שהצטרפה לחברה, והיא מתרחשת דווקא בתקופה שבה OpenAI מנסה להעמיק את פעילותה במגזר הממשלתי והביטחוני.

הדרמה הזו מקבלת משנה תוקף לאור הכישלון של המתחרה הגדולה, אנתרופיק (Anthropic), להגיע להבנות דומות עם הממשל האמריקאי. בעוד שאנתרופיק בחרה להציב קווים קשיחים יותר סביב סוגיות של בטיחות ושימושים צבאיים בבינה מלאכותית, OpenAI הלכה בכיוון הפוך והצליחה לחתום על ההסכם שמאפשר את שילוב המודלים שלה בתוך רשת מסווגת של הפנטגון. התוצאה היא מצב כמעט פרדוקסלי: החברה שמוכנה לשתף פעולה במהירות עם דרישות הממשל נהנית מיתרון עסקי ברור, בעוד המתחרה שניסתה להציב מגבלות מחמירות יותר מצאה את עצמה מחוץ למשחק. בתוך OpenAI עצמה, ההצלחה הזו לא בהכרח נתפסת באופן אחיד. ההתפטרות של קלינובסקי, לצד הביקורת הפנימית על קצב ההתקדמות של ההסכם, מרמזת שהמתח בין שיקולים מסחריים לבין שאלות אתיות מתחיל לבעבע גם בתוך הנהלת החברה.

המקרה של אנתרופיק מחדד גם את המחיר האפשרי של עמידה על עקרונות בטיחות מחמירים בעידן שבו ממשלות מאיצות את שילוב הבינה המלאכותית במערכות ביטחון. החברה, שהוקמה על ידי חוקרים שעזבו בעבר את OpenAI על רקע מחלוקות דומות סביב בטיחות ואתיקה, ביקשה להבטיח מגבלות על שימוש במודלים שלה למעקב אזרחי או לפיתוח מערכות נשק אוטונומיות. אולם השיחות עם הפנטגון הסתיימו ללא הסכמה, ובצעד חריג הגדיר הממשל האמריקאי את אנתרופיק כ"סיכון בשרשרת האספקה". מדובר בסיווג שניתן בדרך כלל לספקים ממדינות יריבות או לגופים הנתפסים כבלתי אמינים מבחינה ביטחונית. ההחלטה הזו לא רק דחקה את אנתרופיק מהמכרז הנוכחי, אלא גם שידרה מסר לשוק: במירוץ הגלובלי על תשתיות ה-AI, חברות שיבקשו להציב מגבלות מחמירות מדי על שימושים צבאיים עלולות למצוא את עצמן מחוץ למעגל החוזים הממשלתיים.

כך או כך התפטרות כזאת בצמרת תחום קריטי כמו רובוטיקה פוגעת ביציבות הפרויקטים. היא מקשה על גיוס עובדים חדשים ומעלה גם את הסיכון התדמיתי מול לקוחות שדורשים אמינות. OpenAI צריכה למצוא מחליף מהר כדי לשמור על צוות הליבה ולשמור על המומנטום בפיתוח.

ההסכם עם הפנטגון: הבטחות מול אתגרי אכיפה

OpenAI אישרה את דבר העזיבה ומציגה את ההסכם עם משרד ההגנה האמריקאי כמסגרת לשימוש אחראי בבינה מלאכותית בזירה הביטחונית. לפי החברה, קיימים קווים אדומים ברורים: איסור על מעקב אחר אזרחים אמריקאים ואיסור על שימוש במערכות נשק אוטונומיות ללא פיקוח אנושי. ההבחנה, כך לפי עמדת החברה, היא בין שימושים תומכי החלטה או שימושים הגנתיים לבין מערכות התקפיות שמקבלות החלטות באופן עצמאי. עם זאת, עצם הפריסה של מודלי הבינה המלאכותית בתוך רשת מסווגת של הפנטגון מצמצמת את רמת השקיפות החיצונית, ומגדילה את התלות באמון שבין החברה, הממשל והציבור.

בדיוק בנקודה הזו מתחילות השאלות המרכזיות שמעסיקות את השוק ואת תעשיית הבינה המלאכותית. גם אם עקרונות השימוש מוגדרים על הנייר, עדיין לא ברור מי הגוף שמפקח בפועל על האכיפה שלהם, כיצד ניתן לזהות חריגות או הפרות, ומה קורה כאשר מודלים של AI משתלבים עמוק בתוך תהליכים צבאיים מורכבים שגבולותיהם משתנים לאורך זמן. ב-OpenAI מדברים על המשך שיח עם עובדים ועם גורמי ממשל, אך נכון לעכשיו אין מנגנוני בקרה מחייבים וברורים. ההתפטרות של קלינובסקי ממחישה עד כמה שאלות על שימושים צבאיים בבינה מלאכותית כבר אינן רק סוגיה תיאורטית, אלא גורם שמתחיל להשפיע גם על תחלופת בכירים בתוך החברות עצמן.

תחרות חריפה: אנתרופיק מודרת, אופןאי זוכה

ההסכם עם הפנטגון נחתם בסוף החודש האחרון, לאחר שהשיחות בין משרד ההגנה לבין Anthropic התפוצצו. אנתרופיק דרשה התחייבויות מחמירות יותר בנוגע למניעת מעקב אזרחי ולשימוש במודלים לפיתוח מערכות נשק אוטונומיות. הממשל האמריקאי בחר שלא להיענות לדרישות הללו, ובצעד חריג אף הגדיר את החברה כ"סיכון בשרשרת האספקה" – סיווג שבדרך כלל שמור לספקים הנתפסים כבעייתיים מבחינה ביטחונית. אנתרופיק הודיעה כי בכוונתה לערער על ההחלטה בבית המשפט, מה שעשוי להפוך את הסוגיה לעימות משפטי רחב יותר סביב גבולות הרגולציה והוגנות המכרזים בתחום הבינה המלאכותית.

מבחינת הממשל, המהלך מאפשר לייצב את שרשרת האספקה הטכנולוגית ולצמצם תלות בספק אחד. מבחינת OpenAI, מדובר בחוזה שמציב אותה בעמדה חזקה יותר במכרזים עתידיים בתחומי מחשוב, אינטגרציה ותשתיות AI למערכות ביטחוניות. עם זאת, ההצלחה הזו מגיעה גם עם מחיר ציבורי. החברה נכנסת לשדה ביקורתי יותר, הן מצד חוקרים והן מצד עובדים בתעשייה. קלינובסקי עצמה הצטרפה ל-OpenAI רק בנובמבר 2024, לאחר שנים במטא שבהן עסקה בפיתוח משקפי מציאות רבודה וטכנולוגיות ראייה ממוחשבת, תחומים שנחשבים רגישים במיוחד כאשר הם משתלבים במערכות ביטחון.

קיראו עוד ב"גלובל"

סתירות פנימיות ומשמעויות שוק רחבות

המתח הפנימי סביב ההסכם עם הפנטגון ניכר גם בהתבטאויות של הנהלת החברה. סם אלטמן, מנכ"ל OpenAI, הגדיר בעבר את המרוץ לחתימה על ההסכם כ"אופורטוניסטי ומרושל". במקביל, החברה עצמה התנגדה לסיווג של Anthropic כסיכון בשרשרת האספקה, אף שהיא נהנית בפועל מהריק שנוצר בעקבות הדחתה מהמכרז. המצב הזה ממחיש עד כמה התחרות החדשה בתחום הבינה המלאכותית כבר אינה מסתכמת רק בפיתוח מודלים חזקים יותר, אלא גם ביכולת לעמוד בדרישות של סיווג ביטחוני, אבטחת מידע ותנאי שימוש שמוכתבים על ידי ממשלות.

בתוך המציאות הזו, שיתופי פעולה עם מערכות ביטחון הופכים בהדרגה לאחד ממנועי הצמיחה המרכזיים של חברות AI. התקציבים גדולים, ההשפעה אסטרטגית, והגישה לתשתיות מחשוב ולמידע הופכת לנכס משמעותי. אבל לצד ההזדמנות העסקית, מתחדד גם הסיכון התדמיתי והארגוני. חברות שמעמיקות את פעילותן בתחום הצבאי נדרשות להתמודד עם ביקורת ציבורית, עם שאלות רגולטוריות ועם אפשרות לתחלופה גבוהה יותר של עובדים שמרגישים אי־נוחות עם כיוון הפעילות.

במובן הזה, האירוע סביב ההתפטרות של קלינובסקי משקף מגמה רחבה יותר בתעשייה. ממשלות ברחבי העולם דוחפות לאימוץ מהיר של בינה מלאכותית במערכות ביטחוניות, בעוד החברות שמפתחות את הטכנולוגיה מוצאות את עצמן בין שני כוחות מנוגדים: מצד אחד הזדמנות כלכלית אדירה, ומצד שני שאלות אתיות ומוסדיות שעדיין אין להן תשובה ברורה. עבור OpenAI, האתגר כעת יהיה להראות שהקווים האדומים שעליהם היא מדברת אכן מחזיקים גם כאשר המודלים שלה משתלבים במערכות רגישות של ביטחון לאומי. השוק, בינתיים, עוקב מקרוב אחרי ההתפתחויות – כולל ההליך המשפטי הצפוי של Anthropic וההשפעה האפשרית שלו על מכרזי הבינה המלאכותית הבאים.