איך האקרים משתמשים ב-AI?
גם האקרים - ׳פצחנים׳ בעברית - למדו להשתמש בכלי החדש והפופולארי, אלא שהוא הופך את הפרקטיקות שלהם למסוכנות יותר. מנגד, הוא דורש מחברות הסייבר להתאים את עצמן למציאות חדשה. אז איך האקרים ממנפים את הכח של AI?
אם השתמשתם בוויז לאחרונה, או שיש לכם מתתקן שגיאות כתיב אוטומטי במחשב או בסלולר, או אם יצא לכם להשתמש בצ׳אט בוט דוגמת ChatGPT או קלוד, אז השתמשתם ב-AI. הטכנולוגעה הזו נמצאת בכל מקום והיא פופולארית מתמיד. אלא שמי שלא שכחו להצטרף למסיבה בזמן הם ההאקרים,
שלמדו לנצל ולמנף את הכח המחשובי החדש לצורכי פשיעה בסייבר.
איך עובד AI, וכיצד הוא משרת האקרים?
מה זה AI?
AI הוא מונח רחב המתייחס למדע של הדמיית אינטליגנציה אנושית במכונות במטרה לאפשר להן לחשוב כמונו ולחקות את הפעולות שלנו. הדבר מאפשר למכונות AI לבצע משימות שבעבר רק בני אדם יכלו להתמודד. עבור מספר מסויים של משימות, AI עשוי אפילו לעלות על בני אדם. משימות כגון מחשוב כמות אדירה של פרמטרים, הרחבת הסקייל של תקיפות סייבר הן טיפה הןרק דוגמאות לתחומים בהם AI מתעלה על בני אדם. מחשבי AI רבים מנסים לחשב את הדרך הטובה ביותר להשיג תוצאה או לפתור בעיה כלשהי. הם בדרך כלל עושים זאת על ידי ניתוח כמויות אדירות של נתוני אימון ולאחר מכן מציאת דפוסים בנתונים השאילתה שדומים לדפוסי עבר עליהם אומנו.
כיצד AI מועיל לאבטחת סייבר בינה מלאכותית
ה-AI מעצב מחדש כמעט כל תעשייה - ואבטחת סייבר אינה יוצאת דופן במובן הזה, שלא לומר שהיא מהתעשיות שיותר מושפעות מבינה מלאכותית. דוח מחקר של מורגן סטנלי העריך כי השוק העולמי למוצרי אבטחת סייבר מבוססי בינה מלאכותית עמד על כ-15 מיליארד דולר בשנת 2021, והוא יזנק לכ-135 מיליארד דולר עד 2030. ארגוני אבטחת סייבר מסתמכים יותר ויותר על AI בשילוב עם כלים מסורתיים יותר כמו הגנת אנטי-וירוס, מניעת אובדן נתונים, זיהוי הונאה, ניהול זהויות וגישה, זיהוי פריצות, ניהול סיכונים ותחומי אבטחה מרכזיים אחרים.
בגלל האופי של בינה מלאכותית, שיכולה לנתח כמויות עצומות של נתונים בו זמנית ולמצוא דפוסים, בינה מלאכותית מתאימה באופן ייחודי למשימות כגון: זיהוי התקפות בפועל בצורה מדויקת יותר מבני אדם, יצירת פחות תוצאות חיוביות שגויות ותעדוף תגובות על סמך הסיכונים בעולם האמיתי שלהם; זיהוי וסימון של סוג הודעות דוא"ל והודעות חשודות המשרתות לעתים קרובות במבצעי פישינג; הדמיית התקפות ׳הנדסה חברתית׳, המסייעות לצוותי אבטחה לזהות נקודות תורפה פוטנציאליות לפני שפושעי סייבר מנצלים אותן. הנדסה חברתית היא פרקטיקה בה פושעי סייבר משתמשים כדי לשכנע את הקורבן שלהם כי התהליך כולו, שבמהלכו הם מווסרים מידע רגיש שעשוי לשמש את הפושעים - לגיטימי לחלוטין; ניתוח כמויות עצומות של נתונים הקשורים לאירועי סייבר במהירות, כך שצוותי אבטחת מידע יכולים לפעול במהירות כדי להכיל את האיום.
- דירה כבר לא תהיה להם: הצעירים שמוותרים על דירה ותולים תקוותם בקריפטו
- האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת
- המלצת המערכת: כל הכותרות 24/7
בנוסף, ל-AI יש פוטנציאל להיות כלי שמשבש את כללי המשחק בבדיקות חדירה. בדיקת חדירה היא בדיקה במהלכה צוותי אבטחת סייבר מנסים למצוא חולשות בתוכנה באופן שבו פושעי סייבר היו עושים זאת כדי לזהות את החולשה לפני שהיא מנוצלת. על ידי פיתוח כלי בינה מלאכותית למיקוד הטכנולוגיה שלהם, ארגונים יוכלו לזהות טוב יותר את החולשות שלהם לפני שהאקרים יוכלו לנצל אותן בזדון. קיום המודיעין הזה יספק לארגוני אבטחת סייבר יתרון משמעותי במניעת התקפות עתידיות. עצירת פשעי סייבר לפני שהם מתרחשים לא רק תעזור להגן על הנתונים של אנשים וחברות, אלא גם תפחית את עלויות ה-IT לעסקים.
איך האקרים מנצלים לרעה AI
למרבה הצער, פושעי סייבר הם חסרי רחמים ובעלי תושייה - ׳טרוריסטים׳ אם תרצו. בואו נסתכל על כמה דרכים שבהן הם משתמשים ב-AI לטובתם ביצוע מזימתם:
תוכניות הנדסה חברתית: אלה הן כאמור תוכניות שמסתמכות על מניפולציה פסיכולוגית של הקורבן כדי לגרום לו לחשוף מידע רגיש או לעשות טעויות אבטחה אחרות. הם כוללים מגוון רחב של קטגוריות של פעילויות הונאה, לרבות הונאות פישינג, והונאות דוא"ל שונות. בינה מלאכותית מאפשרת לפושעי סייבר לבצע אוטומציה של רבים מהתהליכים המשמשים בהתקפות הנדסיות חברתיות, כגון ניסוח של מסרים אישיים במייל או בווצאפ, באופן מתוחכם ויעיל יותר כדי לשטות בקורבנות. המשמעות היא שפושעי סייבר יכולים לייצר נפח גדול יותר של התקפות בפחות זמן - ולחוות אחוזי הצלחה גבוהים יותר.
פריצת סיסמאות: פושעי סייבר מנצלים AI כדי לשפר את האלגוריתמים המשמשים אותם לפענוח סיסמאות. האלגוריתמים המשופרים מספקים ניחושי סיסמה מהירים ומדויקים יותר, מה שמאפשר להאקרים להיות יעילים ומהירים יותר. זה עשוי להוביל לדגש גדול עוד יותר מצד חברות אבטחת הסייבר על פריצת סיסמאות על ידי פושעי סייבר.
- "כבר קיבלנו הצעות לרכישה שהורדנו מהפרק כי אנחנו רואים פוטנציאל אדיר"
- open AI מעניקה אופציות בשווי 1.5 מיליון דולר לעובד
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- פרופ' שעשוע (שוב) מוכר חלום; בחזרה לאקזיט של מובילאיי ועל...
דיפ פייק: סוג זה של הונאה ממנף את היכולת של AI לתפעל בקלות תוכן חזותי או אודיו ולגרום לו להיראות לגיטימי. זה כולל שימוש באודיו ווידאו מזויפים כדי להתחזות לאדם אחר. לאחר מכן ניתן להפיץ את התוכן המזוייף באופן נרחב באינטרנט תוך שניות - כולל בפלטפורמות מדיה חברתית משפיעות - כדי ליצור לחץ, פחד או בלבול בקרב אלו שצורכים אותו.
הרעלת נתונים: האקרים "מרעילים" או משנים את נתוני האימון המשמשים אלגוריתם AI לשם למידה, כדי להשפיע על ההחלטות שהוא מקבל בסופו של דבר. האלגוריתם מוזן במידע מטעה, וקלט גרוע מוביל לפלט גרוע. בנוסף, הרעלת נתונים יכולה להיות קשה ולוקח זמן לזהות אותה. עד שיתגלה, הנזק עלול להיות חמור.
מייסדי AI21 - משמאל לימין: אורי גושן, פרופ' אמנון שעשוע, פרופ' יואב שוהם, צילום: רועי שורפרופ' שעשוע (שוב) מוכר חלום; בחזרה לאקזיט של מובילאיי ועל האקזיט הצפוי ב-AI21
AI21 של פרופ' אמנון שעשוע היא עוד חברת חלום. החברה ובשמה המלא - AI21 Labs מפתחת פלטפורמות ומודלים בתחום הבינה המלאכותית, עם דגש על עיבוד שפה טבעית (NLP) ברמת עומק שמאפשרת קריאה, כתיבה, סיכום והבנה של טקסטים מורכבים. היא מתהדרת ביכולת ניתוח טקסט לעומק, וכפי שאמרו מייסדיה היא יכולה לעשות זאת בפחות שגיאות מהמודלים הגדולים. בפועל, היא נחשבת לאחת מהמתחרות של OpenAI, גרוק, ג'ימיני ו־Anthropic. (להרחבה - מה הבשורה בסטארטאפ החדש של פרופ' שעשוע והאם הוא יכול להיות גדול ממובילאיי?)
החברה מנהלת מו"מ למכירתה לאנבידיה לפי שווי העולה על 2 מיליארד דולר. השווי בגיוס האחרון היה 1.4 מיליארד דולר כשעד היום גייסה החברה קרוב ל-700 מיליון דולר. בהינתן החלום ששעשוע והמייסדים דיברו עליו, עולה השאלה - למה לא להתקדם לבד? האם זה עוד חלום של שעשוע שבסוף נשאר בגדר חלום - את מובילאיי הוא הצליח למכור לאינטל ב-16 מיליארד דולר, כשמאז, כמעט עשור אחרי, היא עברה שינויים וטלטלות וחזרה לוול סטריט ואיכזבה כשהשווי כעת הוט 8.6 מיליארד דולר. שעשוע סיפר חלום, מכר חלום, הפך למיליארדר, אבל בפועל, מובילאיי לא סיפקה את הסחורה, ושעשוע לא קונה מניות באופן משמעותי. לדבר זה קל להוציא כסף מהכיס זה קשה. ובכלל, בזמן שהוא המוביל של מובילאיי הוא עוסק בהקמת סטארטאפים, זו לדעתנו הסיבה או לפחות אחת הסיבות המרכזיות למצבה של מובילאיי - למה נפלה מובילאיי? התשובה במנהלים
אקזיט של 2-3 מיליארד דולר ל-AI21 הוא מרשים, הצלחה גדולה, למרות שהציפיות היו בשמיים. המרוויחים הגדולים נוסף לשעשוע יהיו יואב שוהם ואורי גושן. ל-AI21 כ-200 עובדים, רובם בעלי תארים אקדמיים מתקדמים וניסיון בתחום הבינה המלאכותית, אך הכנסותיה נמוכות יחסית ונעות סביב 50 מיליון דולר. מבחינת אנבידיה, העסקה מהווה הזדמנות להגדיל במהירות את כוח האדם בישראל לצד רכישת טכנולוגיה, אם כי לא ברור מה אנביידה מחפשת בצ'אט-מחולל של החברה, היא הרי לא רוצה להתחרות בלקוחות שלה.
לאחרונה רכשה אנבידיה גם את Deci ו-Run:ai בישראל בסכום כולל של מעל מיליארד דולר כשבמקביל היא נערכת להרחבת הפעילות שלה בארץ שמעסיקה כיום כ-5,500 עובדים. הקמפוס החדש בקריית טבעון אמור להעסיק אלפי עובדים ולפי ההערכות תוך שלוש-ארבע שנים יעסיק לפחות 5,000 עובדים נוספים ובעתיד רחוק יותר כ-10,000 עובדים.
- ראש בראש עם ענקיות ה-AI: מודל הסקה חדש של AI21
- גיוס ענק: סטארט-אפ ה-AI של אמנון שעשוע גייס 155 מיליון דולר, בין היתר מגוגל ואנבידיה
- המלצת המערכת: כל הכותרות 24/7
שעשוע מתמקד כעת בפרויקט הבא שלו עם הסטארט-אפ החדש דאבל AI, שהוקם לפני כשנתיים ושואף לפתח טכנולוגיות AI מתקדמות בתחום הסופר-אינטיליגנציה. דאבל AI מתמקדת במחקר ופיתוח ברמה גבוהה, במטרה לבנות כלים שיביאו תגליות מדעיות משמעותיות. במייסדיה נמנים חוקרים מובילים מתחומי מדעי המחשב, מתמטיקה, פיזיקה וביולוגיה, חלקם עבדו עם שעשוע בעבר במיזמים שונים, כולל מובילאיי. אל תתפלאו אם גם החלום הזה יימכר, וזה לא משנה מה יהיה בעוד 10 שנים. שעשוע הוא פרופסור למדעי המחשב, אבל הוא מצטיין בלמכור חלומות ובשוק הטק זה עובד.
ערן ברק, מנכ"ל ומייסד Mind, קרדיט: אוהד קאב"כבר קיבלנו הצעות לרכישה שהורדנו מהפרק כי אנחנו רואים פוטנציאל אדיר"
שיחה עם ערן ברק, מייסד ומנכ"ל חברת הסייבר MIND
ספר בקצרה על עצמך:
במקור מיבנה, שירתי 6 שנים ב-8200, את התואר הראשון עשיתי בטכניון ולאחריו חזרתי לעולם המודיעין והסייבר. בשנת 2014 הקמתי יחד עם שותפיי את Hexadite, סטארט אפ שפיתח טכנולוגיה לאוטומציה של תגובה לאירועי סייבר. החברה גייסה כ-10.5 מיליון דולר, העבירה את פעילותה לבוסטון, וב-2017 נרכשה על ידי מיקרוסופט תמורת כ-100 מיליון דולר. לאחר הרכישה המשכתי לסיאטל, בה אני נמצא גם היום, כאשר בעבודה במיקרוסופט הייתי בתפקיד ניהולי בעולמות הסקיוריטי. במסגרת התפקיד הייתי מעורב בהקמת Microsoft Intelligent Security Association - MISA שהוא גוף שפועל עד היום ומחבר בין מיקרוסופט לחברות סייבר. כשמגפת הקורונה החלה, החלטתי שאני עוזב את מיקרוסופט, לצאת לדרך חדשה ואז הקמתי את Mind. השותפים בחברה הם הוד בן נון ואיתי שווארץ שלשניהם עבר במודיעין וגם בכמה חברות הייטק.
ספר על החברה ומניין הרעיון?
כשעבדתי במיקרוסופט, כבר לאחר המכירה של Hexadite שהתעסקה בתחום האוטומציה והיום הרבה מה ש-Hexadite עושה, כבר מתבצע על על ידי AI. במהלך התקופה של מיקרוסופט עבדתי עם הרבה מוצרים שאחד מהם היה מיקורסופט אינפורמיישן פרוטקשן. ושם נחשפתי יותר לעולם ההגנה על מידע רגיש, וראיתי שהבעיה המרכזית בעולם הזה עוד לפני עידן ה-AI, זה שהפתרונות שהיו קיימים בשוק היו מאוד מותאמים לסביבות ספציפיות בתוך הארגון. כך למשל הייתה מערכת הגנה ל-Saas, מערכת אחרת למחשבי קצה, מערכת לשרתי on prem, אבל לא הייתה תקשורת ביניהן. כל זאת כשהמידע הוא אותו מידע. מה שנכתב ונשמר בגוגל דרייב, נמצא גם במייל ולפני עשר שנים גם בשרת כלשהו מקומי במחשב. לכל אחד מהמקומות האלו הייתה מערכת הגנה נפרדת וזה לא עשה שכל. הקמנו את Mind כדי לעשות מהפכה לכל הנוגע למידע רגיש, ועכשיו עם עידן ה-AI יצר המון חורים בנושא של הגנת מידע, במיוחד בשנה האחרונה. כיום יש אייג'נטים של AI נוגעים במידע רגיש ואין לנו שליטה עליהם, נוסיף על זה גם פרומפטים שאנחנו לא יודעים לאן הם הולכים ובעיני מי הם נחשפים, ופה Mind נכנסת לתמונה ומגינה גם על כל מה שנכתב בתוכנות AI. איך מגינים מפני עובד בארגון המעלה מסמך רגיש של הארגון ל-AI? או איך מונע עכשיו הפצה של סיסמאות או סודות לשרתים המכילים מידע רגיש, קוד שנעשה באמצעות סוכני AI. יש לנו פלטפורמה אחידה שמגינה על מידע רגיש בסביבות שונות, החל מהענן ולסביבות On prem ובמחשבי קצה ו-AI.
אחת הבעיות המרכזיות הוא בסיווג של מידע מובנה, כמו למשל טבלאות אקסל, בסיסי נתונים וכו׳, לעומת מידע בלתי מובנה כמו קבצי word, טקסט חופשי והודעות, היא השוני במנוע הסיווג עצמו שדורש יכולות לעבור על כל פיסה של מידע. ל-MIND יכולת לסווג מידע בלתי מובנה באופן אוטומטי ובזמן מינימלי בכל סביבות הארגון ועם מינימום טעויות. בין אם מדובר במידע רפואי או אישי, מידע מכרטיסי אשראי, קבצי טקסט או וידאו. הפלטפורמה פועלת על פני סביבות IT שונות ומאפשרת לארגונים לאתר ולמנוע דליפות מידע בזמן אמת ובמהירות גבוהה, בין אם מקורן בעובדים, במערכות אוטומטיות או בכלי בינה מלאכותית.

- open AI מעניקה אופציות בשווי 1.5 מיליון דולר לעובד
- הארגונים רוצים AI, אבל מתקשים להפיק ממנו ערך
- המלצת המערכת: כל הכותרות 24/7
מתי הוקמה וכמה עובדים:
הוקמה 2023 אנחנו כמעט 60 עובדים בחברה, כאשר הפיתוח יושב בתל אביב והמטה בסיאטל.
.jpg)