בינה מלאכותית
צילום: טוויטר

זינוק של פי 10 בשימוש ב-GenAI ב-2024, מה ההשפעה על הסייבר?

שימוש בטכנולוגיות GenAI זינק ב-890% בשנה האחרונה, ולפי פאלו אלטו 14% מאירועי האבטחה כבר קשורים בבינה מלאכותית; סוכני AI, אפליקציות לא מאושרות ו"שערים צדדיים" פותחים חזית חדשה למתקפות ומחייבים שינוי תפיסתי בניהול הסיכוני האבטחה

רוי שיינמן |

מודלי הבינה המלאכותית ממשיכים להשתפר ולחדור לאוכלוסיה, כשהיום כבר אין כמעט מי שלא התנסה בשימוש עם אחד המודלים הפופולאריים כמו ChatGPT, ג'מיני או קלוד, כשלא מעט מאיתנו כבר משתמשים במודלים הללו באופן יומיומי ולמשימות רבות. למעשה, לפי נתוני פאלו אלטו Palo Alto Networks -0.78%  , ב-2024 חל זינוק של כ-890% - כמעט פי 10 -  בתנועת המשתמשים ב-GenAI. 


עם זאת, לצד הגידול המרשים בשימוש, הדוח גם מצביע על עלייה משמעותית בסיכוני אבטחת המידע, כשבשנה האחרונה נרשמה עלייה של פי 2.5 באירועים הקשורים למניעת אובדן מידע (DLP) הקשורים ל-GenAI, המהווים כיום 14% מכלל אירועי אבטחת המידע בארגונים. יישומי GenAI עשויים להוות סיכון לאובדן מידע רגיש, כאשר שימוש לא מאושר או רשלני עלול להוביל לדליפות של קניין רוחני, לחששות לגבי עמידה בתקנות ולפגיעות בפרצות מידע.


הדוח מצביע גם על השימוש הנרחב באפליקציות GenAI לא מאושרות - במהלך המחקר, זיהו צוותי המחקר בממוצע שימוש ב-66 אפליקציות GenAI בכל ארגון, וכ-10% מהן סווגו כבעלות סיכון גבוה. נוסף על כך, הדוח מציין גם את תופעת ה-Shadow AI בה עובדים עושים שימוש בלתי מאושר בטכנולוגיות בינה מלאכותית, מבלי שצוות ה-IT של הארגון מודע לכך. מצב זה מקשה על המעקב והשליטה ומגביר את הסיכון לחשיפת מידע רגיש ואיומים לא מאובטחים. אחד הגורמים לכך הוא השימוש בתוספים, סוכני AI ובוטים לא מאושרים, שפותחים "דלתות צדדיות" שאינן תמיד מוגנות כראוי.


"ארגונים רבים אימצו במהירות את הבינה המלאכותית היוצרת, מבלי להבין עד הסוף את הסיכונים הטמונים בה", מסר יוני אלון, סמנכ"ל מחקר ופיתוח בפאלו אלטו נטוורקס. "מטרת הדוח שלנו היא לבחון את היתרונות, האתגרים, ואת הדרך לאזן בין AI לאבטחה - כדי לאפשר עבודה יעילה לצד שימוש ביתרונות החדשנות בצורה בטוחה".

יוני אלון, סמנכ"ל מחקר ופיתוח בפאלו אלטו נטוורקס; קרדיט: פאלו אלטו נטוורקס


למרות הסיכונים, הדוח של פאלו אלטו נטוורקס מצביע על הפוטנציאל העצום של GenAI להאיץ את פרודוקטיביות הארגונים. כ-84% מהפעולות שנבדקו היו קשורות לשימוש ב-GenAI לכתיבה, ניהול שיחות, תכנות וחיפוש פנים ארגוני, באופן שמדגיש את הפוטנציאל של טכנולוגיה זו לשדרג את יכולת העבודה בארגון. עם זאת, לקחת בחשבון את הסיכונים הגדלים של חשיפת מידע רגיש והפרת רגולציות, דבר שמחייב ארגונים לפתח מדיניות אבטחה ונהלים ברורים על מנת לנהל את הסיכון בצורה חכמה וממוקדת.


איך הבינה המלאכותית מסכנת ארגונים?

אחת החזיתות בהן בינה מלאכותית עלולה להוות גורם סיכון לארגונים היא תחום הזהויות - כלומר סוכני בינה מלאכותית שמקבלים הרשאות מסוימות בארגון, אך יכולים גם לעשות נזק במידה ותוקפים מקבלים אליהם גישה. סייברארק CyberArk Software  הישראלית מתמחה בתחום אבטחת הזהויות בארגונים, ובשיחה עם ביזפורטל בחודש שעבר, התייחס היו"ר והמייסד אודי מוקדי לנושא.

קיראו עוד ב"BizTech"


"מצד אחד יש את הזהויות האנושיות, ומהצד השני יש את זהויות המכונה, שתחת הקטגוריה הזו נכנסים גם סוכני AI, ויש הרבה יותר זהויות מכונה מאשר זהויות אנושיות - ביצענו מחקר ופרסמנו דוח שממנו עולה כי בממוצע על כל זהות אנושית בארגון יש כ-82 זהויות מכונה", אמר מוקדי. "זה איום גדול מכיוון שלכל מכונה יש הרשאות. התוקף הוא יכול להגיע לסוכנים האלה, אבל כמו שזה נראה עכשיו זה איום עתידי שפחות נמצא בשטח, ואנחנו נערכים אליו".


בכלל אפשר לדעת שאחד מסוכני ה-AI שלך מותקף?

"בדיוק, אז היום יותר מתמקדים בצד של הזיהוי, לדעת לזהות אנומליות, שהסוכן הזה לדוגמא לא אמור לגשת לקוד של המפתחים. מנסים לזהות בעיקר אנומליות בגישה של הסוכן שחורגת מההרשאות שלו, זה יוצר משטח תקיפה חדש לגמרי לתוקפים".

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה