דריו אמודאי אנתרופיק רשתות חברתיות
דריו אמודאי אנתרופיק רשתות חברתיות

אנתרופיק והפנטגון חוזרים לדבר - צבא ארה"ב ישתמש בכלי ה-AI של החברה

אחרי הקרע החמור וההגדרה של הממשל כי אנתרופיק מסוכנת לשרשרת האספקה הביטחונית, הצדדים חוזרים לדבר; הפנטגון משקיע 14 מיליארד דולר בשנה בבינה מלאכותית

ליאור דנקנר |
נושאים בכתבה אנתרופיק קלוד

חברת הבינה המלאכותית אנתרופיק והפנטגון חידשו את השיחות כדי לנסות להגיע להסכם שיסדיר את השימוש במודלי הבינה המלאכותית של החברה במערכות הצבא האמריקאי - כך מפורסם בפייננשל טיימס

 זאת בעקבות משבר חריף שהוביל את ממשל טראמפ להורות לסוכנויות פדרליות להפסיק להשתמש בכלים של החברה, ואף להגדיר אותה כסיכון לשרשרת האספקה הביטחונית. 

מנכ"ל אנתרופיק דריו אמודיי מנהל דיונים עם תת שר ההגנה למחקר והנדסה, בניסיון למצוא פשרה שתאפשר לצבא להמשיך להשתמש במודל קלוד, אחד הכלים המתקדמים בתחום.

המשבר פרץ לאחר שהמו"מ על תנאי השימוש קרס. אנתרופיק דרשה הבטחות שהמערכות שלה לא ישמשו למעקב מסיבי על אזרחים בתוך ארה"ב או להפעלת נשק אוטונומי, כמו רחפנים שמחליטים עצמאית על ירי ללא פיקוח אנושי. הפנטגון, לעומת זאת, התעקש על גישה חופשית לכל שימוש חוקי, ללא מגבלות נוספות. העימות הסלים במהירות, עם הוראה מנשיא ארה"ב דונלד טראמפ לסוכנויות להפסיק את השימוש, ושגרירויות אישיות מצד גורמים בממשל נגד הנהלת אנתרופיק.

קלוד כבר מוטמע בצבא ארה"ב

למרות זאת, הפנטגון מעוניין להמשיך בשיתוף הפעולה. מודל קלוד כבר משולב ברשתות מסווגות של הממשלה בחוזה בהיקף כ 200 מיליון דולר, ומסייע בניתוח נתונים, תמיכה מודיעינית וקבלת החלטות. לדוגמה, הוא שימש בפעילויות במזרח התיכון, כולל זיהוי מטרות וסימולציות מבצעיות במבצעים נגד איראן, שם סיפק ניתוח מהיר של מידע גיאו מרחבי כדי לשפר דיוק תקיפות. מערכות כאלה פועלות כמו מנוע חיפוש מתקדם שמעבד כמויות עצומות של מידע, ומציע תובנות שחוסכות זמן קריטי בשדה הקרב.

זמן קצר לאחר קריסת השיחות עם אנתרופיק, OpenAI חתמה על הסכם עם משרד ההגנה, מה שעורר ביקורת על ניצול המשבר. מנכ"ל OpenAI סם אלטמן ניסה להרגיע את הביקורת, ואמר שהחברה לא מיהרה, אך קיווה שאנתרופיק תגיע להסכם דומה. למעשה, הפנטגון משקיע כ 14 מיליארד דולר בשנה בבינה מלאכותית, כולל תוכניות כמו Replicator לפריסת אלפי רחפנים אוטונומיים, מה שמגביר את הלחץ על חברות לספק כלים ללא עיכובים.

אנתרופיק הוקמה ב 2021 על ידי חוקרים שעזבו את OpenAI בשל חילוקי דעות על כיוון הפיתוח. היא מתמקדת בבטיחות ובאתיקה, עם דגש על מניעת סיכונים כמו שימוש לרעה בטכנולוגיה. לדוגמה, מודל קלוד כולל אלגוריתמים שמזהים ומגבילים תכנים מסוכנים, כמו תכנון פצצות, כדי למנוע נזק. זה שונה מגישה פתוחה יותר של מתחרות, שמאפשרת גמישות רבה יותר אך עלולה להוביל לשימושים בעייתיים. בעולם שבו צבאות כמו סין מפתחים כלבים רובוטיים חמושים, והצבא האמריקאי משלב AI ב 15 אלף רובוטים קרקעיים באוקראינה, נראה שחברות כאנתרופיק חייבות לאזן בין חדשנות לבקרה.

קיראו עוד ב"BizTech"

שאלות עקרוניות על שימוש ב-AI לצרכים צבאיים

העימות מדגיש שאלות מרכזיות בעידן הבינה המלאכותית: עד כמה חברות טכנולוגיה יכולות לשלוט בשימושים של ממשלות. עבור הפנטגון, זה כלי אסטרטגי שמעניק יתרון, כמו שיפור ניתוח תמונות לוויין כדי לזהות איומים בזמן אמת. עבור חברות, זה עניין של אחריות מוסרית, שכן AI יכול להשפיע על חיים רבים. התוצאה עלולה להשפיע על כל התעשייה, כולל חברות כמו פלנטיר שמספקות ניתוח נתונים לצבא ארה"ב בחוזים של מיליארדים, ומנצלות את ההסלמה במזרח התיכון כדי להרחיב פעילות. להרחבה: פלנטיר במוקד על רקע ההסלמה במזרח התיכון.

הפנטגון דורש הרחבת שימוש במודלים מסחריים גם ברשתות מסווגות, מה שמגביר את המתח. דוגמה לכך היא הדרישה מענקיות כמו OpenAI ואנתרופיק להסיר חלק ממגבלות הבטיחות, כדי לאפשר שילוב בפרויקטים כמו תוכנית Replicator שמטרתה אלפי כלי שיט אוטונומיים. זה משקף מגמה רחבה יותר, שבה צבאות משקיעים בבינה מלאכותית כדי להחליף חלק מחיילים, כמו באוקראינה שמשתמשת ברובוטי THeMIS לפינוי פצועים. בסין, AI מניע סירות אוטונומיות, בעוד ארה"ב מתכננת 15 אלף רובוטים קרקעיים. להרחבה: סוף עידן החייל האנושי? צה"ל, הפנטגון וסין במירוץ לשדה הקרב האוטונומי.

חידוש השיחות מצביע על אפשרות לפשרה, אולי בהוספת מנגנונים משותפים לבקרה. זה חיוני, שכן אובדן גישה למודלים מתקדמים עלול לפגוע ביכולות הצבא, כמו ניתוח מידע מודיעיני שמקצר זמני תגובה מימים לשעות. חברות אחרות, כמו גוגל ו xAI, עשויות להרוויח אם אנתרופיק תישאר מחוץ, אך זה יצמצם את המגוון הטכנולוגי. במקביל, ממשל טראמפ דוחף להפחתת רגולציה על AI, כדי להאיץ פיתוח, אך זה מעלה סיכונים כמו שימוש לרעה. להרחבה: הפנטגון דורש מ־OpenAI ומאנתרופיק לאפשר שימוש במודלי AI גם ברשתות מסווגות.

התוצאה של המו"מ עשויה להשפיע לא רק על אנתרופיק והפנטגון, אלא על עתיד הקשר בין תעשיית הבינה המלאכותית למערכת הביטחון. זה כולל אתגרים כמו איזון בין יתרון צבאי לבטיחות, בעולם שבו AI הופך למרכזי בלחימה מודרנית.



מהי בינה מלאכותית ואיך היא משמשת בצבא?

בינה מלאכותית היא טכנולוגיה שמאפשרת למחשבים ללמוד מנתונים ולקבל החלטות, כמו זיהוי דפוסים בתמונות. בצבא, היא מנתחת מידע מודיעיני כדי לזהות איומים, חוסכת זמן ומפחיתה סיכונים לחיילים, אך דורשת מגבלות כדי למנוע שימושים מסוכנים כמו מעקב המוני.

מדוע אנתרופיק מתנגדת לשימוש ללא מגבלות?

החברה חוששת שהטכנולוגיה שלה תשמש לפגיעה בפרטיות אזרחים או להפעלת נשק אוטונומי, מה שסותר את עקרונות הבטיחות שלה. זה מבוסס על ניסיון קודם, שבו מודלים דומים הובילו לטעויות, כמו זיהוי שגוי של מטרות שגרם לאבדות אזרחיות.

האם OpenAI שונה מאנתרופיק בגישה לצבא?

OpenAI הסכימה לשימוש חוקי ללא מגבלות נוקשות, אך כוללת מנגנוני בטיחות פנימיים. זה מאפשר פריסה מהירה יותר, אך מעלה חששות אתיים, במיוחד לאור השימוש במודלים שלה במערכות מסווגות שמטפלות בנתונים רגישים.

מה ההשלכות של המשבר על התעשייה?

אם אנתרופיק תפסיד, חברות אחרות עשויות להימנע ממגבלות אתיות כדי לזכות בחוזים, מה שמגביר סיכונים גלובליים. מצד שני, פשרה יכולה לקבוע סטנדרטים חדשים לבקרה, שמגנים על חברות מפני לחץ ממשלתי.

איך משתמשים בבינה מלאכותית במבצעים צבאיים כיום?

במבצעים כמו אלה במזרח התיכון, AI מנתח תמונות לוויין כדי לזהות מטרות, או מסייע בסימולציות שמפחיתות סיכונים. לדוגמה, בצבא ארה"ב, היא משולבת ב 50% מהחוזים הביטחוניים, ומאיצה תהליכים מימים לשעות.



הוספת תגובה

תגובות לכתבה:

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה