האקר פריצה אונליין סייבר האקרים פריצה מחשבים הייטק אבטחת מידע
צילום: Istock

איך האקרים משתמשים ב-AI?

גם האקרים - ׳פצחנים׳ בעברית - למדו להשתמש בכלי החדש והפופולארי, אלא שהוא הופך את הפרקטיקות שלהם למסוכנות יותר. מנגד, הוא דורש מחברות הסייבר להתאים את עצמן למציאות חדשה. אז איך האקרים ממנפים את הכח של AI?

חיים בן הקון |

אם השתמשתם בוויז לאחרונה, או שיש לכם מתתקן שגיאות כתיב אוטומטי במחשב או בסלולר, או אם יצא לכם להשתמש בצ׳אט בוט דוגמת ChatGPT או קלוד, אז השתמשתם ב-AI. הטכנולוגעה הזו נמצאת בכל מקום והיא פופולארית מתמיד. אלא שמי שלא שכחו להצטרף למסיבה בזמן הם ההאקרים, שלמדו לנצל ולמנף את הכח המחשובי החדש לצורכי פשיעה בסייבר. 

איך עובד AI, וכיצד הוא משרת האקרים? 


 מה זה AI?


AI הוא מונח רחב המתייחס למדע של הדמיית אינטליגנציה אנושית במכונות במטרה לאפשר להן לחשוב כמונו ולחקות את הפעולות שלנו. הדבר מאפשר למכונות AI לבצע משימות שבעבר רק בני אדם יכלו להתמודד. עבור מספר מסויים של  משימות, AI עשוי אפילו לעלות על בני אדם. משימות כגון מחשוב כמות אדירה של פרמטרים, הרחבת הסקייל של תקיפות סייבר הן טיפה הןרק דוגמאות לתחומים בהם AI מתעלה על בני אדם. מחשבי AI רבים מנסים לחשב את הדרך הטובה ביותר להשיג תוצאה או לפתור בעיה כלשהי. הם בדרך כלל עושים זאת על ידי ניתוח כמויות אדירות של נתוני אימון ולאחר מכן מציאת דפוסים בנתונים השאילתה שדומים לדפוסי עבר עליהם אומנו.


 כיצד AI מועיל לאבטחת סייבר בינה מלאכותית 


ה-AI מעצב מחדש כמעט כל תעשייה - ואבטחת סייבר אינה יוצאת דופן במובן הזה, שלא לומר שהיא מהתעשיות שיותר מושפעות מבינה מלאכותית. דוח מחקר של מורגן סטנלי העריך כי השוק העולמי למוצרי אבטחת סייבר מבוססי בינה מלאכותית עמד על כ-15 מיליארד דולר בשנת 2021, והוא יזנק לכ-135 מיליארד דולר עד 2030. ארגוני אבטחת סייבר מסתמכים יותר ויותר על AI בשילוב עם כלים מסורתיים יותר כמו הגנת אנטי-וירוס, מניעת אובדן נתונים, זיהוי הונאה, ניהול זהויות וגישה, זיהוי פריצות, ניהול סיכונים ותחומי אבטחה מרכזיים אחרים.


 בגלל האופי של בינה מלאכותית, שיכולה לנתח כמויות עצומות של נתונים בו זמנית ולמצוא דפוסים, בינה מלאכותית מתאימה באופן ייחודי למשימות כגון: זיהוי התקפות בפועל בצורה מדויקת יותר מבני אדם, יצירת פחות תוצאות חיוביות שגויות ותעדוף תגובות על סמך הסיכונים בעולם האמיתי שלהם; זיהוי וסימון של סוג הודעות דוא"ל והודעות חשודות המשרתות לעתים קרובות במבצעי פישינג; הדמיית התקפות ׳הנדסה חברתית׳, המסייעות לצוותי אבטחה לזהות נקודות תורפה פוטנציאליות לפני שפושעי סייבר מנצלים אותן. הנדסה חברתית היא פרקטיקה בה פושעי סייבר משתמשים כדי לשכנע את הקורבן שלהם כי התהליך כולו, שבמהלכו הם מווסרים מידע רגיש שעשוי לשמש את הפושעים - לגיטימי לחלוטין; ניתוח כמויות עצומות של נתונים הקשורים לאירועי סייבר במהירות, כך שצוותי אבטחת מידע יכולים לפעול במהירות כדי להכיל את האיום.


 בנוסף, ל-AI יש פוטנציאל להיות כלי שמשבש את כללי המשחק בבדיקות חדירה. בדיקת חדירה היא בדיקה במהלכה צוותי אבטחת סייבר מנסים למצוא חולשות בתוכנה באופן שבו פושעי סייבר היו עושים זאת כדי לזהות את החולשה לפני שהיא מנוצלת. על ידי פיתוח כלי בינה מלאכותית למיקוד הטכנולוגיה שלהם, ארגונים יוכלו לזהות טוב יותר את החולשות שלהם לפני שהאקרים יוכלו לנצל אותן בזדון. קיום המודיעין הזה יספק לארגוני אבטחת סייבר יתרון משמעותי במניעת התקפות עתידיות. עצירת פשעי סייבר לפני שהם מתרחשים לא רק תעזור להגן על הנתונים של אנשים וחברות, אלא גם תפחית את עלויות ה-IT לעסקים.


 איך האקרים מנצלים לרעה AI 


למרבה הצער, פושעי סייבר הם חסרי רחמים ובעלי תושייה - ׳טרוריסטים׳ אם תרצו. בואו נסתכל על כמה דרכים שבהן הם משתמשים ב-AI לטובתם ביצוע מזימתם:


 תוכניות הנדסה חברתית: אלה הן כאמור תוכניות שמסתמכות על מניפולציה פסיכולוגית של הקורבן כדי לגרום לו לחשוף מידע רגיש או לעשות טעויות אבטחה אחרות. הם כוללים מגוון רחב של קטגוריות של פעילויות הונאה, לרבות הונאות פישינג, והונאות דוא"ל שונות. בינה מלאכותית מאפשרת לפושעי סייבר לבצע אוטומציה של רבים מהתהליכים המשמשים בהתקפות הנדסיות חברתיות, כגון ניסוח של מסרים אישיים במייל או בווצאפ, באופן מתוחכם ויעיל יותר כדי לשטות בקורבנות. המשמעות היא שפושעי סייבר יכולים לייצר נפח גדול יותר של התקפות בפחות זמן - ולחוות אחוזי הצלחה גבוהים יותר.


 פריצת סיסמאות: פושעי סייבר מנצלים AI כדי לשפר את האלגוריתמים המשמשים אותם לפענוח סיסמאות. האלגוריתמים המשופרים מספקים ניחושי סיסמה מהירים ומדויקים יותר, מה שמאפשר להאקרים להיות יעילים ומהירים יותר. זה עשוי להוביל לדגש גדול עוד יותר מצד חברות אבטחת הסייבר על פריצת סיסמאות על ידי פושעי סייבר. 

קיראו עוד ב"BizTech"


 דיפ פייק: סוג זה של הונאה ממנף את היכולת של AI לתפעל בקלות תוכן חזותי או אודיו ולגרום לו להיראות לגיטימי. זה כולל שימוש באודיו ווידאו מזויפים כדי להתחזות לאדם אחר. לאחר מכן ניתן להפיץ את התוכן המזוייף באופן נרחב באינטרנט תוך שניות - כולל בפלטפורמות מדיה חברתית משפיעות - כדי ליצור לחץ, פחד או בלבול בקרב אלו שצורכים אותו.


 הרעלת נתונים: האקרים "מרעילים" או משנים את נתוני האימון המשמשים אלגוריתם AI לשם למידה, כדי להשפיע על ההחלטות שהוא מקבל בסופו של דבר. האלגוריתם מוזן במידע מטעה, וקלט גרוע מוביל לפלט גרוע. בנוסף, הרעלת נתונים יכולה להיות קשה ולוקח זמן לזהות אותה. עד שיתגלה, הנזק עלול להיות חמור. 

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
האקר סייבר האקרים פריצה מחשבים הייטק אבטחת מידע
צילום: Istock

האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת

חוקרי סייבר בדרום קוריאה חשפו כי האקרים מצפון קוריאה ניצלו את ChatGPT להפקת מסמכים מזויפים לצורכי פישינג והציגו באיזו קלות ניתן לעקוף מנגנוני הגנה בבינה מלאכותית ולבצע מתקפות ריגול דיגיטליות

אדיר בן עמי |

חוקרי אבטחת מידע דרום קוריאניים חשפו השבוע מקרה בו קבוצת האקרים צפון קוריאנית השתמשה ב-ChatGPT ליצירת תעודת זהות צבאית מזויפת. המסמך המזויף שימש במסגרת התקפת סייבר שכוונה נגד יעדים בדרום קוריאה. המקרה מצטרף למגמה גוברת של שימוש בכלי בינה מלאכותית לפעילות ריגול.


קבוצת האקרים הידועה בשם "קימסוקי" יצרה מסמך מזויף של תעודת זהות צבאית דרום קוריאנית. המסמך היה אמור להפוך הודעת פישינג לאמינה יותר. ההודעה הכילה קישור לתוכנה זדונית המסוגלת לחלץ מידע ממחשבי הקורבנות. זו אינה הפעם הראשונה שצפון קוריאה עושה שימוש בבינה מלאכותית למטרות כאלה. באוגוסט דיווחה חברת אנתרופיק כי האקרים צפון־קוריאנים השתמשו בכלי Claude Code כדי להתחזות לעובדי טכנולוגיה ולהתקבל לעבודה בחברות אמריקניות, שם ביצעו משימות טכניות לאחר שהתקבלו.


OpenAI מסרה בפברואר כי חסמה חשבונות חשודים של גורמים מצפון קוריאה. לפי החברה, המשתמשים יצרו קורות חיים ומכתבי פנייה מזויפים כדי לגייס עובדים למיזמים שלהם. במקרה האחרון כוונו ההתקפות לעיתונאים, חוקרים ופעילי זכויות אדם העוסקים בנושאי צפון קוריאה. ייתכן שהנפגעים נבחרו בשל עיסוקם בפרסום מידע על המשטר.


הממשל האמריקני טוען כי צפון קוריאה משתמשת בהתקפות סייבר, בגניבת מטבעות דיגיטליים ובשירותי קבלנות טכנולוגית כדי לאסוף מידע ולממן את תוכניותיה, לרבות פיתוח נשק גרעיני, ובכך לעקוף סנקציות.


במהלך המחקר, החוקרים ביצעו ניסוי כדי להבין איך נוצר המסמך המזויף. כאשר ביקשו מ-ChatGPT ליצור תעודת זהות ממשלתית - פעולה הנחשבת בלתי חוקית בדרום קוריאה - המערכת סירבה לבקשה. אולם כשהם שינו מעט את אופן ניסוח הבקשה, המערכת הסכימה ליצור את המסמך הרצוי. הממצא מעלה חששות לגבי הקלות שבה ניתן לעקוף מנגנוני הבטיחות של כלי בינה מלאכותית ולנצל אותם למטרות זדוניות. זה מדגים פער בין המדיניות המוצהרת של חברות הטכנולוגיה לבין היכולת הפרקטית לאכוף אותה.

בינה מלאכותית
צילום: Midjourney

וישראל מובילה עולמית בשימוש ב-AI

על פי דוח שימוש שפרסמה אנתרופיק (שעומדת מאחורי קלוד) ישראל מובילה את העולם בשימוש בקלוד, ביחס לגודל האוכלוסייה; על פי, OpenAI (שעומדת מאחורי ChatGPT), כ-40% מהעובדים משתמשים בכלי AI מדי יום 

רן קידר |
נושאים בכתבה בינה מלאכותית

דוחות חדשים של Anthropic ו-OpenAI מאשרים לנו את מה שכל אחת ואחד מאיתנו רואה בעצמנו, וזה שהשימוש ב-AI חודר בקצב מסחרר אל שוק העבודה והחיים האישיים. בארצות הברית כבר כ-40% מהעובדים מדווחים שהם עושים שימוש יומיומי בכלי AI כלשהו, שיעור כפול מזה שנמדד רק לפני שנתיים. עוד עולה מהדוחות כי המגמה אינה אחידה: חלק מהתחומים, המדינות והקבוצות החברתיות מאמצים את הטכנולוגיה בקצב מהיר בהרבה מאחרים, מה שמעלה חששות להעמקת פערים קיימים.

מבחינת תחומי השימוש, בתחום התכנות, הזירה הטבעית ביותר לאימוץ AI, ו-36% מכלל השימושים הוא בתיכנות. באנתרופיק מדווחים על ירידה של כ-3% בפרומפטים שעוסקים בתיקון באגים והכפלה בשימוש ליצירת קוד חדש ולבניית תוכנות שלמות. ניתן לפרש את הנתון כשמשקף גם שיפור בביצועי המודלים וגם עלייה באמון המשתמשים. 

תחום החינוך עלה מ-9% ל-12% בכלל הפרומפטים והפך לסקטור השני בגודלו: יותר ויותר מורים וסטודנטים עושים שימוש בקלוד בהכנת חומרי לימוד, בהסברים ובסיוע בכתיבת עבודות. תחום המדע גם הוא עולה, בעיקר במשימות של סינתוז ידע ומחקר ראשוני. לצד זאת, תחומי עסקים וניהול דווקא רשמו ירידה מ-6% ל-3% ו-5% ל-3% בהתאמה, מה שמרמז שהשימוש האינטנסיבי יותר מתרחש דווקא בעולמות ידע ויצירה.

ישראל אלופת העולם בשימוש בקלוד  

נתוני אנתרופיק מצביעים על ישראל כאלופה עולמית עם מדד שימוש גבוה פי 7 מהממוצע הגלובלי, אחריה סינגפור (פי 4.6) ואוסטרליה (פי 4.1). מדינות מתפתחות מציגות שימוש נמוך במיוחד, ולמשל הודו, אינדונזיה וניגריה עם פחות מחמישית מממוצע השימוש העולמי, והפעילות בהן מתרכזת כמעט אך ורק בכתיבת קוד. בארה"ב, קליפורניה מובילה בכמות מוחלטת, אך וושינגטון די.סי. ויוטה מובילות ביחס לגודל האוכלוסייה. דבר נוסף שבולט הוא סוג השימוש בהתאם לאזור הגיאוגרפי ולאופי הכלכלה המקומית, כשבפלורידה מתמקדים בפיננסים בפלורידה, בקליפורניה ב-IT ובבירה, וושינגטון די.סי, מתמקדים בעריכת מסמכים. בנוסף לגיאוגרפיה, גם החתכים הדמוגרפיים מראים מגמה "נורמלית" באימוץ טכנולוגיות חדשות, כשהצעירים הם המובילים באימוץ ושיעורי השימוש שלהם עולים בקצב מהיר, בעוד שהפער המגדרי שניכר בתחילת הדרך הולך ומצטמצם.

המשמעות הכוללת ברורה: הבינה המלאכותית מתפשטת במהירות חסרת תקדים, אך האימוץ מתרחש באופן לא שוויוני, הן בין מדינות והן בין קבוצות אוכלוסייה. ישראל ממוקמת כיום בחזית האימוץ, מה שמעניק לה יתרון כלכלי וידע משמעותי, אך במקביל מחדד את החשש מפני פערים גלובליים שצפויים להתרחב אם קצב האימוץ במדינות מתפתחות לא יתגבר.