איך האקרים משתמשים ב-AI?
גם האקרים - ׳פצחנים׳ בעברית - למדו להשתמש בכלי החדש והפופולארי, אלא שהוא הופך את הפרקטיקות שלהם למסוכנות יותר. מנגד, הוא דורש מחברות הסייבר להתאים את עצמן למציאות חדשה. אז איך האקרים ממנפים את הכח של AI?
אם השתמשתם בוויז לאחרונה, או שיש לכם מתתקן שגיאות כתיב אוטומטי במחשב או בסלולר, או אם יצא לכם להשתמש בצ׳אט בוט דוגמת ChatGPT או קלוד, אז השתמשתם ב-AI. הטכנולוגעה הזו נמצאת בכל מקום והיא פופולארית מתמיד. אלא שמי שלא שכחו להצטרף למסיבה בזמן הם ההאקרים,
שלמדו לנצל ולמנף את הכח המחשובי החדש לצורכי פשיעה בסייבר.
איך עובד AI, וכיצד הוא משרת האקרים?
מה זה AI?
AI הוא מונח רחב המתייחס למדע של הדמיית אינטליגנציה אנושית במכונות במטרה לאפשר להן לחשוב כמונו ולחקות את הפעולות שלנו. הדבר מאפשר למכונות AI לבצע משימות שבעבר רק בני אדם יכלו להתמודד. עבור מספר מסויים של משימות, AI עשוי אפילו לעלות על בני אדם. משימות כגון מחשוב כמות אדירה של פרמטרים, הרחבת הסקייל של תקיפות סייבר הן טיפה הןרק דוגמאות לתחומים בהם AI מתעלה על בני אדם. מחשבי AI רבים מנסים לחשב את הדרך הטובה ביותר להשיג תוצאה או לפתור בעיה כלשהי. הם בדרך כלל עושים זאת על ידי ניתוח כמויות אדירות של נתוני אימון ולאחר מכן מציאת דפוסים בנתונים השאילתה שדומים לדפוסי עבר עליהם אומנו.
כיצד AI מועיל לאבטחת סייבר בינה מלאכותית
ה-AI מעצב מחדש כמעט כל תעשייה - ואבטחת סייבר אינה יוצאת דופן במובן הזה, שלא לומר שהיא מהתעשיות שיותר מושפעות מבינה מלאכותית. דוח מחקר של מורגן סטנלי העריך כי השוק העולמי למוצרי אבטחת סייבר מבוססי בינה מלאכותית עמד על כ-15 מיליארד דולר בשנת 2021, והוא יזנק לכ-135 מיליארד דולר עד 2030. ארגוני אבטחת סייבר מסתמכים יותר ויותר על AI בשילוב עם כלים מסורתיים יותר כמו הגנת אנטי-וירוס, מניעת אובדן נתונים, זיהוי הונאה, ניהול זהויות וגישה, זיהוי פריצות, ניהול סיכונים ותחומי אבטחה מרכזיים אחרים.
בגלל האופי של בינה מלאכותית, שיכולה לנתח כמויות עצומות של נתונים בו זמנית ולמצוא דפוסים, בינה מלאכותית מתאימה באופן ייחודי למשימות כגון: זיהוי התקפות בפועל בצורה מדויקת יותר מבני אדם, יצירת פחות תוצאות חיוביות שגויות ותעדוף תגובות על סמך הסיכונים בעולם האמיתי שלהם; זיהוי וסימון של סוג הודעות דוא"ל והודעות חשודות המשרתות לעתים קרובות במבצעי פישינג; הדמיית התקפות ׳הנדסה חברתית׳, המסייעות לצוותי אבטחה לזהות נקודות תורפה פוטנציאליות לפני שפושעי סייבר מנצלים אותן. הנדסה חברתית היא פרקטיקה בה פושעי סייבר משתמשים כדי לשכנע את הקורבן שלהם כי התהליך כולו, שבמהלכו הם מווסרים מידע רגיש שעשוי לשמש את הפושעים - לגיטימי לחלוטין; ניתוח כמויות עצומות של נתונים הקשורים לאירועי סייבר במהירות, כך שצוותי אבטחת מידע יכולים לפעול במהירות כדי להכיל את האיום.
- דירה כבר לא תהיה להם: הצעירים שמוותרים על דירה ותולים תקוותם בקריפטו
- האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת
- המלצת המערכת: כל הכותרות 24/7
בנוסף, ל-AI יש פוטנציאל להיות כלי שמשבש את כללי המשחק בבדיקות חדירה. בדיקת חדירה היא בדיקה במהלכה צוותי אבטחת סייבר מנסים למצוא חולשות בתוכנה באופן שבו פושעי סייבר היו עושים זאת כדי לזהות את החולשה לפני שהיא מנוצלת. על ידי פיתוח כלי בינה מלאכותית למיקוד הטכנולוגיה שלהם, ארגונים יוכלו לזהות טוב יותר את החולשות שלהם לפני שהאקרים יוכלו לנצל אותן בזדון. קיום המודיעין הזה יספק לארגוני אבטחת סייבר יתרון משמעותי במניעת התקפות עתידיות. עצירת פשעי סייבר לפני שהם מתרחשים לא רק תעזור להגן על הנתונים של אנשים וחברות, אלא גם תפחית את עלויות ה-IT לעסקים.
איך האקרים מנצלים לרעה AI
למרבה הצער, פושעי סייבר הם חסרי רחמים ובעלי תושייה - ׳טרוריסטים׳ אם תרצו. בואו נסתכל על כמה דרכים שבהן הם משתמשים ב-AI לטובתם ביצוע מזימתם:
תוכניות הנדסה חברתית: אלה הן כאמור תוכניות שמסתמכות על מניפולציה פסיכולוגית של הקורבן כדי לגרום לו לחשוף מידע רגיש או לעשות טעויות אבטחה אחרות. הם כוללים מגוון רחב של קטגוריות של פעילויות הונאה, לרבות הונאות פישינג, והונאות דוא"ל שונות. בינה מלאכותית מאפשרת לפושעי סייבר לבצע אוטומציה של רבים מהתהליכים המשמשים בהתקפות הנדסיות חברתיות, כגון ניסוח של מסרים אישיים במייל או בווצאפ, באופן מתוחכם ויעיל יותר כדי לשטות בקורבנות. המשמעות היא שפושעי סייבר יכולים לייצר נפח גדול יותר של התקפות בפחות זמן - ולחוות אחוזי הצלחה גבוהים יותר.
פריצת סיסמאות: פושעי סייבר מנצלים AI כדי לשפר את האלגוריתמים המשמשים אותם לפענוח סיסמאות. האלגוריתמים המשופרים מספקים ניחושי סיסמה מהירים ומדויקים יותר, מה שמאפשר להאקרים להיות יעילים ומהירים יותר. זה עשוי להוביל לדגש גדול עוד יותר מצד חברות אבטחת הסייבר על פריצת סיסמאות על ידי פושעי סייבר.
- open AI מעניקה אופציות בשווי 1.5 מיליון דולר לעובד
- פרופ' שעשוע (שוב) מוכר חלום; בחזרה לאקזיט של מובילאיי ועל האקזיט הצפוי ב-AI21
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- "המטרה שלנו לזהות מה הלקוח רוצה, החזון להיות מנוע...
דיפ פייק: סוג זה של הונאה ממנף את היכולת של AI לתפעל בקלות תוכן חזותי או אודיו ולגרום לו להיראות לגיטימי. זה כולל שימוש באודיו ווידאו מזויפים כדי להתחזות לאדם אחר. לאחר מכן ניתן להפיץ את התוכן המזוייף באופן נרחב באינטרנט תוך שניות - כולל בפלטפורמות מדיה חברתית משפיעות - כדי ליצור לחץ, פחד או בלבול בקרב אלו שצורכים אותו.
הרעלת נתונים: האקרים "מרעילים" או משנים את נתוני האימון המשמשים אלגוריתם AI לשם למידה, כדי להשפיע על ההחלטות שהוא מקבל בסופו של דבר. האלגוריתם מוזן במידע מטעה, וקלט גרוע מוביל לפלט גרוע. בנוסף, הרעלת נתונים יכולה להיות קשה ולוקח זמן לזהות אותה. עד שיתגלה, הנזק עלול להיות חמור.
און גולן, מנכ"ל מייסד 4Model קרדיט: יח"צ"יש היערכות עולמית למצב מתוח או למלחמה ופה אנחנו נכנסים"
שיחה עם און גולן, מייסד ומנכ"ל 4Model
ספר בקצרה על עצמך:
במקור מחדרה, נשוי פלוס 2. מהנדס מכונות בהשכלה שלי, כאשר התחלתי בתור מתכנן בתחום הביטחוני. שירתי בשייטת במשך 6 שנים, ואת הפרויקט גמר של התואר עשיתי ביחידה. היום אני מנכ"ל 4Model ובנוסף אני בוחן פרויקטי גמר שהם מסווגים ונעשים עם חיל הים של סטודנטים במכללת אפקה, וזו סוג של סגירות מעגל עבורי כי גם אני למדתי בה.
ספר על החברה ומניין בא הרעיון?
כמהנדס, כאשר עובדים על פיתוח חדש, ברגע ששלב התכנון נגמר, צריך לייצר אותו, גם אם בכמויות נמוכות ולשם בדיקת המוצר. בנקודה הזו, הרגשתי שיש מצוקה בשוק. אם הייתי מסיים תכנון תוך ארבעה חודשים, כדי לייצר את המוצר היה לוקח עוד חצי שנה, כי צריך לעבור בין 5 ל-30 קבלני משנה רק כדי לייצר אבטיפוס, כאשר אצל כל אחד מהם אתה הלקוח הכי לא חשוב, וזה חונק הרבה חברות הנדסה.
התחלתי לחפש ספקים בסין, טסתי המון פעמים, יצרתי קשרים עם מפעלים. ראיתי שהייצור שם יעיל ומהיר, ואפשר לעשות את רוב העבודה במקום אחד. אחרי עשר שנים כמתכנן מכאני בעצמי, ובשנת 2022, פתחתי את 4Model.
החברה החלה עם ייצור בסין כאשר הלקוחות הראשונים היו חברות הנדסה וסטודיואים שיצרו מוצרים ונתקלו בבעיית ייצור. כיום אנחנו עובדים עם חמישה מפעלים בסין ובהודו. היום במדינת ישראל יש פיקוח של אפ"י כאשר יש חלקים שמותר לייצר בסין ויש כאלה שאסור, ואנחנו מייצרים בהודו במפעל מאושר תעשייה ביטחונית, כאשר הלקוחות שלי הם ברובן בתחום הדיפנס. אפ"י זו מחלקה במשרד הביטחון, והיא הגוף המפקח על הייצור הביטחוני שמכתיב מה מותר ומה אסור. יש רשימה של מדינות שמותר לנו לעבוד איתן ואלו מדינות אסור לנו.
- מתווכי הנשק גוזרים עמלה של 350 מיליון דולר בשנה מהתעשייה הביטחונית בישראל
- לראשונה בישראל: תערוכה ביטחונית בהשתתפות חברות ומשלחות מהעולם
- המלצת המערכת: כל הכותרות 24/7
היום, גם מפעלי ייצור מקומיים מדברים על כך שלפני המלחמה או לפני חמש שנים, רק 30% מההלקוחות שלהם היו מהתעשייה הביטחונית ו-70% אזרחית. היום היחס הזה הוא הפוך. היום כשאנחנו מדברים על תעשייה ביטחונית, בין אם על מערכות התקפה או הגנה וציוד נלווה, ואפילו ייצור מדים ונעליים, הכל חווה גידול מטורף וזה הכל חלק מתעשיית הדיפנס.
סם אלטמן openaiopen AI מעניקה אופציות בשווי 1.5 מיליון דולר לעובד
מדובר בשיא חסר תקדים כאשר החברה גם הרחיבה את מערך הבונוסים ושימור העובדים ואף מעניקה מענקי שימור בשווי מיליונים לעובדים משמעותיים
חברת OpenAI העניקה לעובדיה חבילות תגמול מבוססות מניות בשווי ממוצע של כ־1.5 מיליון דולר לעובד, נתון חסר תקדים בקרב סטארטאפים פרטיים, כך על פי דיווח של הוול סטריט ג'ורנל . מדובר בסכומים שמציבים את עובדי החברה בשורה אחת עם עובדים בכירים בחברות ציבוריות ותיקות, עוד לפני ש־OpenAI עצמה הונפקה או קבעה מסלול ברור להנפקה עתידית. העיתון מציין כי חלק ניכר מהתגמול אינו מגיע בשכר מזומן אלא באופציות וביחידות
הון הצמודות לשווי החברה, שהוערך בעסקאות משניות בעשרות מיליארדי דולרים.
המרוץ העולמי אחר טאלנטים בתחום הבינה המלאכותית הפך בשנים האחרונות לאחד הגורמים המרכזיים שמעצבים את שוק ההייטק, ו־OpenAI ניצבת בלב הזירה הזו. לפי שורת פרסומים בעיתונות הכלכלית האמריקאית והבריטית, החברה פיתחה מדיניות תגמול חריגה בהיקפה, שבמרכזה מתן אופציות ומענקי הון לעובדים כמעט בכל הדרגים, במטרה לשמר כוח אדם איכותי ולהתמודד עם תחרות אגרסיבית מצד ענקיות טכנולוגיה וחברות AI חדשות.
לפי דיווחים ברשת בלומברג ובפייננשל טיימס, מדיניות האופציות של OpenAI עברה בשנה האחרונה שינוי עמוק. החברה צמצמה תחילה את תקופת ההבשלה המקובלת של אופציות, ובהמשך אף ביטלה לחלוטין מנהג המכונה vesting cliff, לפיו קיימת תקופת המתנה ראשונית שבה העובד אינו זכאי לאף חלק מההון. המשמעות היא שעובדים חדשים מקבלים זכות מיידית לחלק מהאופציות שלהם, מהלך חריג שנועד להקטין את הפיתוי לעבור לחברות מתחרות שמציעות תגמול מהיר וגבוה.
המהלך הזה אינו מתרחש בוואקום. לפי דיווחים, OpenAI מתמודדת עם לחצים כבדים מצד שחקנים כמו מטה, גוגל וסטארטאפים ממומנים היטב, שמוכנים לשלם סכומים עצומים עבור חוקרים ומהנדסים מובילים בתחום ה־AI. בתגובה, OpenAI הרחיבה גם את מערך הבונוסים ושימור העובדים, כולל מענקי שימור של מיליוני דולרים לעובדים מרכזיים, וגמישות רבה יותר בבחירה בין שכר מזומן לבין תגמול הוני.
- אמזון בוחנת השקעה של כ־10 מיליארד דולר ב־OpenAI
- בזמן שמצמצתם: OpenAI שידרגה את יכולות עיבוד התמונה והמדעים של ChatGPT
- המלצת המערכת: כל הכותרות 24/7
עם זאת, העיתונות הכלכלית מדגישה כי למדיניות הזו יש גם מחיר. היקף התגמול ההוני מהווה מרכיב משמעותי בהוצאות החברה ותורם להפסדים התפעוליים המדווחים שלה. אנליסטים שצוטטו בפייננשל טיימס מציינים כי חלוקת אופציות בהיקפים כה גדולים עלולה ליצור דילול מהותי לבעלי המניות הקיימים ולהשפיע על האופן שבו משקיעים מעריכים את שווי החברה בעתיד.
