
הפנטגון דורש מ־OpenAI ומאנתרופיק לאפשר שימוש במודלי AI גם ברשתות מסווגות
משרד ההגנה מבקש להרחיב את הגישה לכלי בינה מלאכותית לכל רמות הסיווג ולהפחית חסמים שהטילו החברות, על רקע מחלוקת סביב בטיחות, אחריות ושימושים צבאיים רגישים
משרד ההגנה האמריקאי מבקש להרחיב באופן משמעותי את השימוש במודלי בינה מלאכותית מסחריים, כולל בסביבות מסווגות, ולצמצם חלק ממנגנוני ההגבלה שמפעילות החברות עצמן.
לפי הדיווחים, הנהגת הטכנולוגיה של הפנטגון הציבה לעצמה כיעד לאפשר גישה למודלי AI מתקדמים בכל רמות הסיווג, ולא להסתפק עוד בשימושים אדמיניסטרטיביים ברשתות פתוחות יחסית. מבחינת משרד ההגנה, מדובר בהאצת תהליך שכבר מתנהל, מעבר מהתנסות מבוקרת לשילוב עמוק יותר במערכות הליבה. עד כה, רוב הפרויקטים המשותפים בין הצבא לחברות כמו OpenAI, גוגל ו-xAI פעלו על גבי רשתות בלתי מסווגות, המשמשות מיליוני עובדים אזרחיים וצבאיים לצורכי ניהול, תמיכה ותפעול. בסביבות אלה ניתן היה להטמיע כלי שפה מתקדמים מבלי לחשוף מידע רגיש במיוחד.
המעבר לרשתות מסווגות משנה את התמונה. תשתיות אלו משמשות לעיבוד מודיעין, תכנון מבצעים והיערכות מבצעית. שילוב מודלים ג׳נרטיביים בזירה כזו מציב שאלות מהותיות: מי אחראי לתוצר? כיצד מוודאים אמינות? ומה קורה כאשר מערכת מייצרת מידע שגוי אך משכנע?
יתרון תחרותי וסיכון
בפנטגון רואים בבינה מלאכותית כלי מרכזי לסינתזה של כמויות עצומות של מידע. מפקדים ומקבלי החלטות מתמודדים עם עומס נתונים הולך וגובר, מתצלומי לוויין ועד דיווחי שטח בזמן אמת. היכולת לרכז, לתמצת ולהצליב מקורות במהירות נתפסת כיתרון תחרותי בשדה קרב שממילא נשען על מערכות אוטונומיות וסייבר. אלא שמודלים שפתיים אינם מערכות חיזוי מדויקות. הם עלולים לטעות, להחסיר הקשרים או "להמציא" פרטים שנשמעים סבירים. בסביבה אזרחית טעות כזו עשויה להסתכם באי־נוחות. בסביבה מסווגת, שבה החלטות משפיעות על חיי אדם ועל מהלכים צבאיים, ההשלכות שונות לחלוטין.
- OpenAI מדווחת על חזרה לצמיחה דו־ספרתית ב-ChatGPT
- ראש בראש עם גוגל ומיקרוסופט: OpenAI משיקה את Frontier
- המלצת המערכת: כל הכותרות 24/7
כדי להתמודד עם סיכונים אלה, חברות ה-AI פיתחו בשנים האחרונות שכבות הגנה פנימיות: חסימות של תכנים מסוימים, סירוב למענה על בקשות הקשורות לנשק או לאלימות, והגבלות על שימושים בתחומי מעקב ופגיעה בזכויות. לצד זאת, הן מחייבות לקוחות לעמוד במדיניות שימוש מפורטת.
במשרד ההגנה סבורים כי מנגנונים אלה מגבילים את היכולת למצות את הפוטנציאל של הכלים. לטענת גורמים המעורים בגישה זו, כל עוד השימוש נעשה בהתאם לדין האמריקאי ולמסגרת הפיקוח הפנימית של הצבא, אין מקום לכך שחברה פרטית תקבע גבולות נוספים.
ההסכם בין OpenAI לפנטגון
השבוע הושג הסכם בין OpenAI לפנטגון, המאפשר שימוש בכלי החברה, בהם ChatGPT, במסגרת רשת ייעודית בלתי מסווגת שהוטמעה במשרד ההגנה. במסגרת ההבנות, חלק מהמגבלות הרגילות הותאמו או הוסרו עבור המשתמשים הצבאיים. עם זאת, ההסכם מוגבל לסביבה שאינה מסווגת. כל הרחבה לרשתות מסווגות תחייב הסדרה נפרדת, לרבות קביעת תנאים חדשים. בכך נשמרת לעת עתה הבחנה ברורה בין שימוש תפעולי רחב לבין שילוב עמוק בליבת המערכות הרגישות ביותר.
- נובוקיור הישראלית מזנקת 25%; סיסקו נופלת 7%, אפלובין 5%; ומה קורה בצ'ק פוינט?
- נובוקיור קיבלה אישור מהרגולטור לטיפול חדש בסרטן הלבלב - המניה מזנקת
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- מורגן סטנלי: "המניות האלו יעלו מעל 100%; הזדמנות במרכזי...
גם גוגל ו-xAI התקשרו בעבר בהסכמים עם משרד ההגנה, אך בדומה ל-OpenAI, הפעילות התמקדה בעיקר ברשתות פתוחות יחסית. השלב הבא של חדירה לרמות סיווג גבוהות, עדיין מצוי במשא ומתן.
המקרה של אנתרופיק
אנתרופיק, מפתחת הצ׳טבוט קלוד, כבר מספקת גישה למוצריה בהקשרים מסוימים של ביטחון לאומי, אך הבהירה כי אינה מעוניינת שטכנולוגיית קלוד תשמש להפעלה אוטונומית של מערכות נשק או למעקב פנים־ארצי בארה"ב. עמדות אלה יצרו שיח מורכב יותר מול גורמי הביטחון.
מבחינת אנתרופיק, שמירה על גבולות שימוש היא חלק בלתי נפרד מאסטרטגיית החברה. מנגד, בפנטגון רואים בהתניות מסוג זה מגבלה תפעולית, במיוחד על רקע תחרות טכנולוגית עם מדינות יריבות.
ברקע, מתנהל דיון רחב יותר על אחריות ושליטה. ככל שמודלים מסחריים נטמעים במערכות של מדינה, מתחדדת השאלה מי קובע את כללי ההפעלה - היצרן או הריבון. הסוגיה משפיעה על חוזים, על עיצוב מערכות ועל האופן שבו ייראה שדה הקרב העתידי. בשלב זה לא פורסם לוח זמנים לשילוב מלא של מודלי AI ברשתות המסווגות של משרד ההגנה. אך עצם הדרישה להסרת מגבלות והעמקת השימוש מעידה כי מבחינת הפנטגון, בינה מלאכותית היא רכיב אסטרטגי בתשתית הביטחונית של ארה"ב.