
גוגל סיכלה מתקפת סייבר מבוססת AI שכוונה נגד ארגונים רבים בו זמנית
יחידת מודיעין האיומים של גוגל זיהתה וניטרלה ניסיון של תוקפים להשתמש במודל בינה מלאכותית לתכנון תקיפה דרך פירצה לא מוכרת המאפשרת גישה ללא אישורים רגילים, כולל עקיפת אימות דו שלבי- תקיפה שמראה כיצד ה-AI הופך לכלי נשק משמעותי של תוקפי סייבר בעולם חדש של איומים
גוגל סיכלה מתקפת סייבר מבוססת בינה מלאכותית לניצול חולשות בקנה מידה רחב. החברה ניטרלה ניסיון של תוקפים להוציצא לפועל מתקפת יום-אפס, קרי מתקפת סייבר המנצלת חולשה בתוכנה או בחומרה, שלא הייתה ידועה לחברה, ליצרן או לציבור.
גם בתקיפות סייבר, השימוש ב-AI משנה את שרשרת התקיפה כולה, כאשר במקום תהליך ידני ארוך, התוקפים יכולים להפעיל מודלים של בינה מלאכותית שסורקים קוד, מציעים וריאציות של ניצול ומבדקים אותן אוטומטית. ה-AI מקצר את הזמן מרעיון למתקפה פעילה, ומאפשר התאמה מהירה לשינויים בהגנות. גוגל מדגישה שהמודל לא היה של ג'מיני, אלא כנראה כלי חיצוני זמין בשוק.
החברה בטוחה שהמודל שימש לחיפוש החולשה, כתיבת קוד ניצול והכנת התקפה רחבה שמכוונת לפגיעה במספר רב של ארגונים בו זמנית. עם זאת, היא לא חשפה את זהות הקבוצה ולא פרטים טכניים מדויקים על הפרצה.

- אזהרה מגוגל: אתרי אינטרנט מתחילים להרעיל סוכני AI בארגונים
- אקזיט ליובל דיסקין: סיימוטיב נמכרת לחברה הודית בעסקה של עד 120 מיליון דולר
- המלצת המערכת: כל הכותרות 24/7
תוקפים משתמשים ב-AI כדי לזהות פירצות
מודלים כמו OpenClaw כבר עוזרים לתוקפים לבנות קוד זדוני, לאתר חולשות ולתכנן התקפות. למרות מנגנוני הגבלה במודלים מובילים, תוקפים משתמשים בגרסאות פתוחות, שילובים או התאמות כדי להשיג תוצאות. זה יוצר אתגר למגינים, שצריכים להתמודד עם מגוון רחב של תרחישים, בעוד התוקף מחפש רק נתיב אחד יעיל.
עקיפת אימות דו שלבי היא דוגמה קלאסית לסיכון. שיטה זו נחשבת חזקה, אבל חולשה מערכתית מאפשרת דילוג עליה. ארגונים שמיישמים אותה עדיין חשופים אם הפרצה נמצאת בשכבה נמוכה יותר.
להרחבה: גוגל חשפה מתקפת סייבר מתוחכמת של האקרים סינים.
האקרים מסין וצפון קוריאה מתעניינים בכלי AI
האירוע הזה חלק ממגמה שמתרחבת, כאשר חברות כמו אנתרופיק דחו השקות מודלים בגלל סיכוני אבטחה, כולל יכולת לנצל חולשות עתיקות. הדבר הוביל לדיונים ברמת ניהול גבוהה, והמודלים שוחררו רק לקבוצות מצומצמות כמו אפל, מיקרוסופט וחברות אבטחה. במקביל, יש התקדמות בהגנה: OpenAI השיקה גרסה ייעודית לצוותי סייבר, מוגבלת למשתמשים מסוננים.
- אלביט קיבלה הזמנה של 212 מיליון דולר מצבא ארה"ב למערכות ראיית לילה
- באזפיד נמכרת ב-120 מיליון דולר, בדרך לקיצוצים ולכלי AI
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- אלמנתו של בעלי אונליפאנס קיבלה את השליטה באימפריה שבנה
להרחבה:
אנתרופיק דחתה השקת מודל AI חדש מסיבות אבטחה.
OpenAI תשיק מודל ייעודי לצוותי סייבר.
דיווחים על קבוצות של האקרים המקושרות לסין ולצפון קוריאה מראות עניין גובר בבינה מלאכותית לחיפוש חולשות. זה לא בהכרח משנה את כל משוואת האיום, אבל מראה ששחקנים מדינתיים משלבים את הכלים בשרשרת התקיפה שלהם. השקעות באבטחת מידע מגיעות למיליארדים מדי שנה, אבל הקצב של התקפות מבוססות AI דורש התאמה מהירה.

השלכות מעשיות לארגונים: ניהול חולשות וניטור חריגות
ארגונים צריכים להדגיש ניהול אגרסיבי של חולשות, צמצום הרשאות וניטור התחברויות. הפער בין תוקף למגן מתרחב כשהבינה המלאכותית מקצרת את זמן ההבשלה של מתקפה. התקפת יום-אפס מאפשרת קיצור דרך סביב הגנות קיימות, ודורשת גילוי מוקדם יותר.
התעשייה עוברת למודלים מבוקרים יותר, שעוברים בדיקות אבטחה מחמירות לפני שהם עולים. כלים הגנתיים מבוססי AI יכולים לשפר זיהוי חריגות ותיעדוף פרצות, אך הסיכון לזליגה להתקפות נשאר. ארגונים חייבים לשלב ניטור AI בשגרה, לצד עדכונים תכופים.
בסופו של דבר, השילוב בין בינה מלאכותית להתקפות סייבר הופך את הנוף למהיר ומסוכן יותר. ארגונים שמתעכבים בהתאמה חשופים לפגיעות רחבות, במיוחד כשפרצות אפס יום משולבות עם אוטומציה חכמה.