האקר פריצה אונליין סייבר האקרים פריצה מחשבים הייטק אבטחת מידע
צילום: Istock

איך האקרים משתמשים ב-AI?

גם האקרים - ׳פצחנים׳ בעברית - למדו להשתמש בכלי החדש והפופולארי, אלא שהוא הופך את הפרקטיקות שלהם למסוכנות יותר. מנגד, הוא דורש מחברות הסייבר להתאים את עצמן למציאות חדשה. אז איך האקרים ממנפים את הכח של AI?

חיים בן הקון |

אם השתמשתם בוויז לאחרונה, או שיש לכם מתתקן שגיאות כתיב אוטומטי במחשב או בסלולר, או אם יצא לכם להשתמש בצ׳אט בוט דוגמת ChatGPT או קלוד, אז השתמשתם ב-AI. הטכנולוגעה הזו נמצאת בכל מקום והיא פופולארית מתמיד. אלא שמי שלא שכחו להצטרף למסיבה בזמן הם ההאקרים, שלמדו לנצל ולמנף את הכח המחשובי החדש לצורכי פשיעה בסייבר. 

איך עובד AI, וכיצד הוא משרת האקרים? 


 מה זה AI?


AI הוא מונח רחב המתייחס למדע של הדמיית אינטליגנציה אנושית במכונות במטרה לאפשר להן לחשוב כמונו ולחקות את הפעולות שלנו. הדבר מאפשר למכונות AI לבצע משימות שבעבר רק בני אדם יכלו להתמודד. עבור מספר מסויים של  משימות, AI עשוי אפילו לעלות על בני אדם. משימות כגון מחשוב כמות אדירה של פרמטרים, הרחבת הסקייל של תקיפות סייבר הן טיפה הןרק דוגמאות לתחומים בהם AI מתעלה על בני אדם. מחשבי AI רבים מנסים לחשב את הדרך הטובה ביותר להשיג תוצאה או לפתור בעיה כלשהי. הם בדרך כלל עושים זאת על ידי ניתוח כמויות אדירות של נתוני אימון ולאחר מכן מציאת דפוסים בנתונים השאילתה שדומים לדפוסי עבר עליהם אומנו.


 כיצד AI מועיל לאבטחת סייבר בינה מלאכותית 


ה-AI מעצב מחדש כמעט כל תעשייה - ואבטחת סייבר אינה יוצאת דופן במובן הזה, שלא לומר שהיא מהתעשיות שיותר מושפעות מבינה מלאכותית. דוח מחקר של מורגן סטנלי העריך כי השוק העולמי למוצרי אבטחת סייבר מבוססי בינה מלאכותית עמד על כ-15 מיליארד דולר בשנת 2021, והוא יזנק לכ-135 מיליארד דולר עד 2030. ארגוני אבטחת סייבר מסתמכים יותר ויותר על AI בשילוב עם כלים מסורתיים יותר כמו הגנת אנטי-וירוס, מניעת אובדן נתונים, זיהוי הונאה, ניהול זהויות וגישה, זיהוי פריצות, ניהול סיכונים ותחומי אבטחה מרכזיים אחרים.


 בגלל האופי של בינה מלאכותית, שיכולה לנתח כמויות עצומות של נתונים בו זמנית ולמצוא דפוסים, בינה מלאכותית מתאימה באופן ייחודי למשימות כגון: זיהוי התקפות בפועל בצורה מדויקת יותר מבני אדם, יצירת פחות תוצאות חיוביות שגויות ותעדוף תגובות על סמך הסיכונים בעולם האמיתי שלהם; זיהוי וסימון של סוג הודעות דוא"ל והודעות חשודות המשרתות לעתים קרובות במבצעי פישינג; הדמיית התקפות ׳הנדסה חברתית׳, המסייעות לצוותי אבטחה לזהות נקודות תורפה פוטנציאליות לפני שפושעי סייבר מנצלים אותן. הנדסה חברתית היא פרקטיקה בה פושעי סייבר משתמשים כדי לשכנע את הקורבן שלהם כי התהליך כולו, שבמהלכו הם מווסרים מידע רגיש שעשוי לשמש את הפושעים - לגיטימי לחלוטין; ניתוח כמויות עצומות של נתונים הקשורים לאירועי סייבר במהירות, כך שצוותי אבטחת מידע יכולים לפעול במהירות כדי להכיל את האיום.


 בנוסף, ל-AI יש פוטנציאל להיות כלי שמשבש את כללי המשחק בבדיקות חדירה. בדיקת חדירה היא בדיקה במהלכה צוותי אבטחת סייבר מנסים למצוא חולשות בתוכנה באופן שבו פושעי סייבר היו עושים זאת כדי לזהות את החולשה לפני שהיא מנוצלת. על ידי פיתוח כלי בינה מלאכותית למיקוד הטכנולוגיה שלהם, ארגונים יוכלו לזהות טוב יותר את החולשות שלהם לפני שהאקרים יוכלו לנצל אותן בזדון. קיום המודיעין הזה יספק לארגוני אבטחת סייבר יתרון משמעותי במניעת התקפות עתידיות. עצירת פשעי סייבר לפני שהם מתרחשים לא רק תעזור להגן על הנתונים של אנשים וחברות, אלא גם תפחית את עלויות ה-IT לעסקים.


 איך האקרים מנצלים לרעה AI 


למרבה הצער, פושעי סייבר הם חסרי רחמים ובעלי תושייה - ׳טרוריסטים׳ אם תרצו. בואו נסתכל על כמה דרכים שבהן הם משתמשים ב-AI לטובתם ביצוע מזימתם:


 תוכניות הנדסה חברתית: אלה הן כאמור תוכניות שמסתמכות על מניפולציה פסיכולוגית של הקורבן כדי לגרום לו לחשוף מידע רגיש או לעשות טעויות אבטחה אחרות. הם כוללים מגוון רחב של קטגוריות של פעילויות הונאה, לרבות הונאות פישינג, והונאות דוא"ל שונות. בינה מלאכותית מאפשרת לפושעי סייבר לבצע אוטומציה של רבים מהתהליכים המשמשים בהתקפות הנדסיות חברתיות, כגון ניסוח של מסרים אישיים במייל או בווצאפ, באופן מתוחכם ויעיל יותר כדי לשטות בקורבנות. המשמעות היא שפושעי סייבר יכולים לייצר נפח גדול יותר של התקפות בפחות זמן - ולחוות אחוזי הצלחה גבוהים יותר.


 פריצת סיסמאות: פושעי סייבר מנצלים AI כדי לשפר את האלגוריתמים המשמשים אותם לפענוח סיסמאות. האלגוריתמים המשופרים מספקים ניחושי סיסמה מהירים ומדויקים יותר, מה שמאפשר להאקרים להיות יעילים ומהירים יותר. זה עשוי להוביל לדגש גדול עוד יותר מצד חברות אבטחת הסייבר על פריצת סיסמאות על ידי פושעי סייבר. 

קיראו עוד ב"BizTech"


 דיפ פייק: סוג זה של הונאה ממנף את היכולת של AI לתפעל בקלות תוכן חזותי או אודיו ולגרום לו להיראות לגיטימי. זה כולל שימוש באודיו ווידאו מזויפים כדי להתחזות לאדם אחר. לאחר מכן ניתן להפיץ את התוכן המזוייף באופן נרחב באינטרנט תוך שניות - כולל בפלטפורמות מדיה חברתית משפיעות - כדי ליצור לחץ, פחד או בלבול בקרב אלו שצורכים אותו.


 הרעלת נתונים: האקרים "מרעילים" או משנים את נתוני האימון המשמשים אלגוריתם AI לשם למידה, כדי להשפיע על ההחלטות שהוא מקבל בסופו של דבר. האלגוריתם מוזן במידע מטעה, וקלט גרוע מוביל לפלט גרוע. בנוסף, הרעלת נתונים יכולה להיות קשה ולוקח זמן לזהות אותה. עד שיתגלה, הנזק עלול להיות חמור. 

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
אילוסטרציהאילוסטרציה

אחרי שהקים את ניוראלינק, סאם הודאק עובד על מיזוג תודעתי בין בני אדם

המייסד-השותף של ניוראלינק, החברה שכבר הצליחה להשתיל במח האנושי שבב לשליטה גופנית באמצעות המחשבה, פונה עכשיו למיזם שנשמע יותר מדי מדע בדיוני, ובחברה החדשה שלו, Science Corp, עובד על טכנולוגיות שמבקשות לא רק לשקם ראייה, אלא לשנות את ההבנה האנושית של התודעה, המוח והחיים עצמם; מהשתלת שבב ברשתית ועד חזון למיזוג תודעתי בין בני אדם: זו כבר לא מדע בדיוני, אלא תוכנית עבודה עם לוחות זמנים

רן קידר |

מקס הודאק נראה רחוק מהדימוי של מנכ"ל בתחום מדעי המוח. הוא החל את דרכו המקצועית כשהחל לתכנת בגיל 6, ובמהלך הדרך עבר במעבדתו של מדען המח מיגל ניקולליס, עד שהגיע להיות שותפו של אילון מאסק להקמת ניוראלינק וניהולה בפועל עד 2021. שם, לדבריו, למד איך לחשוב אחרת: "הייתי מציג למאסק שתי אפשרויות מנוגדות. הוא היה מצביע מיד על אחת, והבעיה היתה פשוט נעלמת".

עם הניסיון הזה, ובעזרת שלושה בוגרי ניוראלינק נוספים, הוא הקים לפני ארבע שנים את Science Corp., חברה שמצהירה בגלוי על מטרה שאפתנית: להבין את המוח האנושי עד כדי שינוי מושגי היסוד של תודעה, זיכרון וזהות.

700 חברות, מרוץ עולמי ופריצה הנדסית אמיתית

בעוד העולם מרוכז במהפכת ה-AI ובמלחמות הגיוס, תחום ה-BCI (ממשק מוח-מחשב) מתפתח במהירות יוצאת דופן. לפי נתוני הפורום הכלכלי העולמי, כמעט 700 חברות כבר פועלות בתחום. מיקרוסופט מובילה מחקר עצמאי, אפל חברה השנה ל-Synchron, ובסין כבר פורסמה תוכנית רשמית להגיע להובלה עולמית עד 2030.

המדע עצמו לא חדש, אומר הודאק, אך מהפכת המכשור, שכוללת מיזעור, הורדת צריכת חשמל ושיפור בטיחות ההשתלה, היא זו שמאפשרת לראשונה הפעלה אמיתית של חזון ממשק מוח-מחשב מלא.

כאמור, מיקרוסופט משקיעה מזה שבע שנים בפרויקט BCI ייעודי שמטרתו לבחון דרכים לשלב יכולות עצביות בפלטפורמות מחשוב עתידיות. החברה מפתחת כלים לא פולשניים לקריאת פעילות מוחית, בוחנת שילוב של מודלים עצביים עם AI, ומתמקדת ביישומים אפשריים לטיפול נוירולוגי ולשיפור ביצועים קוגניטיביים. מדובר בחזון שנע בין שיקום רפואי לבין דרכים חדשות לשלוט במחשבים ללא מגע.

הונאה פיננסית (X)הונאה פיננסית (X)

ככה לא תיפלו בהונאות פיננסיות דיגיטליות - מדריך חשוב (חלק ב')

אינסוף הונאות פיננסיות מפילות המוני אנשים בארץ ובעולם - איך מזהים הונאה, איזה פעולות צריך לעשות כדי "לצאת" מההונאה ואיך לא להיות הקורבן הבא? שיטות ההונאה הקיימות כיום וכלים להתמודד עם הונאות עתידיות

רן קידר |
נושאים בכתבה הונאה

המשך של מדריך הונאות פיננסיות ברשת - כנסו כאן לחלק א'



הונאות AI, Deepfake ושימוש בקול ובתמונה


שנת 2025 תיכנס לספרי ההיסטוריה כשנה שבה טכנולוגיית Deepfake הפכה מכלי מעניין למעבדות מחקר לנשק ההונאה המרכזי של פושעי הסייבר. היכולת ליצור סרטונים, שיחות קול ותמונות מזויפות שנראות ונשמעות אמיתיות לחלוטין פתחה צוהר חדש ומפחיד בעולם ההונאות. כיום, כל אחד עם מספר דקות של חומר גלם ותוכנה פשוטה יכול ליצור Deepfake שיש בו כדי לשכנע אפילו את הקרובים ביותר של האדם המזויף.


הונאות קוליות - 'זה הקול של בני'


טכנולוגיית שיבוט קול התפתחה בצורה מדהימה. כיום, די ב-30 שניות של הקלטת קול כדי ליצור מודל של בינה מלאכותית שמסוגל לדבר בקול של כל אדם. הקול משוכפל בצורה כל כך מדויקת שאפילו בני משפחה קרובים מתקשים להבחין בהבדל. הרמאים משיגים את חומר הגלם בקלות: סרטונים בטיקטוק, אינסטגרם, פייסבוק, או אפילו הקלטות מזדמנות זמינות ברשת.

תסריטים נפוצים:

      "אימא, אני בבעיה": הקורבן מקבל שיחה מהבן או הבת שלו (לכאורה). הקול זהה לחלוטין. הילד בוכה ואומר שהוא עצור או במצוקה חמורה ודורש העברת כסף מיידית לעורך דין או כדי לשחרר אותו מהכלא.

      "זה המנכ"ל - דחוף": עובד מקבל שיחה מהמנכ"ל של החברה (לכאורה) המבקש ממנו להעביר כסף באופן מיידי לספק או לשותף עסקי. הקול זהה, וטון הדיבור משכנע.