מה זה 'AI רעיל', ומה אפשר לעשות כדי למנוע אותו?
כמו שיש תוכן רעיל יש גם AI רעיל שנסמך על התכנים ברשת. האם מניעה או רגולציה יכולה לעכב את מהפכת ה-AI, מה קורה באירופה ואצלנו
בתוך ים ההתלהבות מהבינה המלאכותית — עם היכולת שלה לכתוב, לתרגם, לצייר, להמליץ, להפתיע — צץ מושג חדש שמטריד רגולטורים, ממשלות וחברות טכנולוגיה: AI רעיל.
המונח הזה, שעד לאחרונה נשמע בעיקר באקדמיה ובכנסים סגורים, כבר מופיע במסמכים רשמיים של נציבות האיחוד האירופי. ובזמן שבישראל עוד מתווכחים אם צריך בכלל לפקח על GPT או לתת לו לזרום חופשי, באירופה יש מי שממש מודאגים.
אבל רגע לפני, מה זה אומר ש-AI הוא "רעיל"? למה זה פתאום נחשב לאיום אמיתי? ואיך בכלל בינה מלאכותית — מכונה חסרת כוונה — יכולה להפיץ שנאה, הסתה או מידע שגוי?
בינה מלאכותית לא "רעה" – אבל היא כן עלולה להזיק
המשמעות של "רעילות" בתחום הבינה המלאכותית היא לא שהמודל מקולקל, או שיש בו כוונה לפגוע. הכוונה היא לכך שבלי לשים לב — או בלי שבכלל מישהו התכוון — המודל עלול להפיק תכנים בעייתיים.
- מהפכת ה-AI בהייטק הישראלי: 15 אלף מפתחים כבר בשטח
- OECD מזהיר מפני התפוצצות בועת AI והסלמת מלחמת הסחר
- המלצת המערכת: כל הכותרות 24/7
זה יכול להיות ניסוחים גזעניים, סטריאוטיפים מגדריים, שפה פוגענית, עידוד לאלימות, שיח אנטישמי, הפצת תיאוריות קונספירציה, הצגת עובדות שגויות, או פשוט מידע מעוות שמתחזה לאמת.
וזה קורה לא רק במודלים קטנים או פרוצים. גם מודלים של החברות הגדולות — OpenAI, Anthropic, Meta, Google — עדיין מייצרים לעיתים תכנים כאלה, גם אחרי תהליכי סינון והכשרה.
למה כולם מדברים על זה עכשיו?
כי אנחנו בשלב שבו המודלים הפכו נגישים, חזקים וזמינים לכולם. לא רק אנשי טכנולוגיה, אלא גם ילדים, קמפיינרים פוליטיים, בעלי אתרים, תלמידים ומורים – כולם משתמשים ב-GPT ובדומיו. ובדיוק כשהשימושים מתפשטים, מגיע גל של תקלות: תשובות שכוללות "בדיחות" אנטישמיות, תיאורים שמרמזים שנשים פחות מתאימות לניהול, או הצגת אירועים היסטוריים בצורה חלקית ומוטה. לפעמים אלה טעויות. לפעמים — תוצאה של דאטה לא מפוקח שעליו המודלים עברו אימון.
- המכירה של ארמיס מביאה את היקף האקזיטים בסייבר לכ-80 מיליארד דולר
- ההייטק הישראלי גדל באירופה: מעל 30 אלף עובדים וצמיחה שנתית של 4.8%
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- מה קורה בהייטק הישראלי - מפטרים או מגייסים? הנה התשובה
הבעיה היא שלמרות מאמצים לשפר, אי אפשר לחזות מראש מה יצא. ובמערכת של מיליארדי בקשות ביום, כל מקרה בעייתי עלול להפוך לויראלי, להשפיע על דעת קהל או לייצר נזק תדמיתי, פוליטי או חברתי.
באירופה כבר לא מחכים — הם פועלים
האיחוד האירופי לקח על עצמו להוביל רגולציה עולמית בתחום הבינה המלאכותית. הם ניסחו חוק בשם AI Act שמנסה להגדיר איזה שימושים מותרים, אילו מסוכנים, ומה דורש פיקוח. אבל החקיקה הזו נבנתה בקצב רגוע, והמציאות – דוהרת.
לאחרונה, עם השקת מודלים חדשים כמו GPT-4.5 ו־Claude 3, רגולטורים בגרמניה, צרפת, הולנד ואיטליה נשמעים לחוצים הרבה יותר. הם דורשים שקיפות, הגבלות, סנקציות – ואפילו אחריות פלילית במקרים מסוימים. ברקע, מתנהלים מגעים להקמת גוף בקרה אירופי עצמאי שיפקח על תכני בינה מלאכותית – בדומה למה שנעשה בתחום ההגבלים העסקיים.
מקרים שקרו באמת
בכמה כלי תקשורת באירופה דווח על כך שמודלים פופולריים הפיצו מידע שגוי על פוליטיקאים ערב בחירות, או נתנו המלצה מרומזת על גזע מסוים בבחירת מועמדים לעבודה.
באחד המקרים, GPT חיבר כתבה דמיונית על עיתונאית אמיתית, שבה נטען כי סילפה עובדות בכנס בינלאומי – למרות שהאירוע כלל לא קרה. התוכן הופץ בפורומים אנטי-תקשורתיים, וגרם לה לאיומים אישיים.
ומה קורה בישראל?
כרגע, אין רגולציה מסודרת לבינה מלאכותית. רשות החדשנות פרסמה מסמך עקרונות כללי. משרד המשפטים מקיים דיונים שקטים. אבל בפועל – אין חוק, אין גוף מפקח, ואין מדיניות מחייבת.
עם זאת, במגזר הציבורי כבר מתחילים להבין את הסיכון. גופים ממשלתיים וחלק מהאוניברסיטאות מטמיעים מנגנוני בקרה פנימיים – במיוחד על תכנים שנוצרים אוטומטית.
חברות הטכנולוגיה מוסיפות שכבות סינון, מגבילות גישה למודלים פתוחים, ומנסות לחנך את המשתמשים איך להפעיל את ה-AI בצורה אחראית. הבעיה היא שהרבה מהשיח מתנהל בדיעבד – אחרי שהתוכן כבר הופץ, פגע או השפיע. ולכן, מדינות רבות – לא רק באירופה – מתחילות לדרוש: מנגנוני שקיפות – לדעת מאיפה מגיע המידע שעליו ה-AI מתבסס, הגדרות אחריות – האם החברה אחראית למה שהמודל מייצר? סימון תכנים – חובה לציין כשמדובר ביצירה של AI, סנקציות – קנסות במיליונים על מקרים חמורים במיוחד.
האם זה פתיר?
התשובה מורכבת. בינה מלאכותית לומדת מתוך דאטה – וכשמאמנים אותה על האינטרנט, כולל טוקבקים, פורומים, סרטונים ורשתות חברתיות – הרעילות היא חלק מהמציאות. לא צריך כוונה רעה בשביל שזה יקרה.
האם אפשר לנקות לגמרי? כנראה שלא. אבל כן אפשר לצמצם, לפקח, ולוודא שלפחות בדברים הרגישים – יש בקרה אנושית.
- 1.פשוט מאוד להבין מה זה AI רעיל 13/04/2025 10:46הגב לתגובה זוחברות הימורים כמו PLAYTIKA MOONACTIVE משתמשות בצוותי AI כדי לגרום למשתמשים לבזבז יותר כסף על הימורים הם לא מודים בזה רשמית אבל מהכרות עם השוק זה בידיוק מה שעושים שםוזו רק דוגמא אחת

מה קורה בהייטק הישראלי - מפטרים או מגייסים? הנה התשובה
ההייטק הישראלי צומח בלי לגייס עובדים - ה-AI החליף את הג'וניורים ומה השלב הבא?, על התחומים הצומחים ועל התחומים שנמצאים בסיכון
ההייטק לא קורס - הוא פשוט כבר לא צריך אתכם
בחודשים האחרונים מתרבים הדיווחים על התקררות בשוק העבודה בהייטק המקומי. מדברים על קיפאון, מדברים אפילו על ירידה בכמות העובדים. אין ירידה בכמות העובדים. התמונה אומנם מורכבת, אבל אין דרמה אמיתית. ההייטק הישראלי לא נמצא בנסיגה, אלא בעיצומו של שינוי מבני עמוק, שמתרחש במקביל בכל מוקדי הטכנולוגיה בעולם.
נכון לסוף 2025, מספר המועסקים בהייטק בישראל נע סביב 410 אלף עובדים - רמה דומה מאוד לשנה הקודמת, ואף עלייה צנועה. זו אינה ירידה, אלא האטה בקצב הצמיחה. האטה שמגיעה לאחר יותר מעשור של גידול מהיר שנתפס כמובן מאליו. במובן הזה, הנתון החריג אינו ירידה במספר העובדים, אלא העובדה שההייטק כבר לא מגדיל מצבת כוח אדם בקצב משמעותי מאוד כפי שהורגלנו בעבר.
הגורם המרכזי לשינוי אינו משבר כלכלי, אלא חדירה מואצת של כלי בינה מלאכותית לתהליכי עבודה. על פי הערכות גורמים בתעשייה, בין 7,000 ל-10,000 משרות - בעיקר משרות ג'וניור ותפקידי ביניים, הוחלפו או צומצמו באמצעות אוטומציה ו-AI. משימות שבעבר דרשו צוותים של מפתחים צעירים מבוצעות כיום באמצעות קוד גנרטיבי, מערכות אוטומטיות וכלי פיתוח חכמים.
חברות ענק כמו מיקרוסופט, גוגל, אמזון, סיילספורס ואחרות פיטרו עובדים לא בשל ירידה בפעילות, אלא כחלק מהתייעלות מבנית ומעבר למודלים המסתמכים על AI. גם בישראל, ההייטק לא צריך פחות עבודה - אלא פחות עובדים בתפקידים מסוימים. עם זאת, בהחלט יש "חשיבה מחדש" ושינוי מודל עסקי אמיתי בחברות תוכנה שמאוימות על ידי ה-AI. קל היום לפתח תוכנה ופתרון אפליקטיביים וזה מעמיד את החברות האלו בסיכון גדול ובאיום גדול. חברות כמו נייס, מאנדיי וויקס נפגעו בבורסה ואכזבו את המשקיעים בדוחות האחרונים, והשאלה מה יהיה קדימה. ההנהלות של החברות האלו מדברות על התעצמות והתחזקות, אבל וול סטריט סקפטית.
- אלפאבית רוכשת חברת תשתיות ב־4.75 מיליארד דולר
- אינטל עלתה יותר מ-80% - אך המבחן האמיתי עוד לפניה
- המלצת המערכת: כל הכותרות 24/7
ממספרים לערך
ההייטק עובר ממודל עתיר כוח אדם למודל עתיר תפוקה, שבו השאלה המרכזית אינה כמה עובדים יש לחברה, אלא כמה ערך מייצר כל עובד. מערכות אוטומציה ופלטפורמות פיתוח חכמות מאפשרים לצוותים קטנים לייצר תפוקות שבעבר דרשו מחלקות שלמות. משימות תכנות, בדיקות, תיעוד, אנליזה ואפילו ניהול תהליכים מבוצעות היום במהירות גבוהה פי כמה ובפחות ידיים. התוצאה: חברות ממשיכות לגדול בהכנסות, במוצר ובחדירה לשווקים, בלי להגדיל את מצבת כוח האדם בהתאם.

המכירה של ארמיס מביאה את היקף האקזיטים בסייבר לכ-80 מיליארד דולר
חברת ServiceNow רוכשת את ארמיס ב-7.75 מיליארד דולר
חברת ServiceNow האמריקאית הודיעה על רכישת ארמיס הישראלית-אמריקאית בתמורה ל-7.75 מיליארד דולר במזומן, בעסקה שמסמנת אקזיט ענק לסייבר הישראלי. נזכיר שזו שנה מדהימה לסייבר - סייברארק נמכרה לפאלו אלטו בתמורה ל-25 מיליארד דולר, ויז נמכרה לגוגל ב-32 מיליארד דולר, ועכשיו ארמיס ב-7.75 מיליארד דולר, אם לוקחים גם את האקזיטים הנוספים בתחום מגיעים ךהיקף אקזיטים של כ-80 מיליארד דולר בשנה בסייבר.
העסקה של ארמיס שתלויה באישורים רגולטוריים, צפויה להיסגר במחצית השנייה של 2026. ארמיס אמורה להשתלב בפלטפורמת ניהול השירותים של ServiceNow. כ-950 עובדי ארמיס יצטרפו לחברה הרוכשת, עם חבילת תגמול מצטברת של 500 מיליון דולר, הכוללת מענקי שימור ותמריצים.
ארמיס, שהוקמה ב-2015 על ידי יבגני דיברוב ונדיר יזרעאלי, בוגרי יחידת 8200, פיתחה פלטפורמה לזיהוי וניהול נכסים דיגיטליים ללא התקנת סוכנים. הטכנולוגיה מאפשרת מיפוי של מיליארדי מכשירים, כולל ציוד תעשייתי, מכשור רפואי ומערכות IoT, שקשה להגן עליהם בשיטות מסורתיות. כיום, ארמיס מנטרת מעל 6.5 מיליארד נכסים ומעבדת טריליוני אותות יומיים, עם הכנסות שנתיות חוזרות של כ-340 מיליון דולר וקצב צמיחה מעל 50%. החברה משרתת יותר מ-35% מחברות Fortune 100, כולל ענקיות כמו סמסונג וקוקה-קולה, שמשתמשות בפלטפורמה לזיהוי סיכונים בזמן אמת, כמו פרצות במכשירי OT שחשופים להתקפות תעשייתיות.
הרכישה משקפת מגמה רחבה בשוק הסייבר, שבו חברות גדולות מחפשות לשלב כלים פרואקטיביים להתמודד עם איומים הולכים וגוברים. בשנת 2025 לבדה, התרחשו מעל 3,000 מתקפות כופר גלובליות, עם נזק ממוצע של 4.5 מיליון דולר לאירוע. ServiceNow, ששוויה בשוק עומד על כ-179 מיליארד דולר, מרחיבה את פעילותה מניהול IT למערכות תפעוליות, כולל תשתיות קריטיות. השילוב עם ארמיס יאפשר יצירת "מגדל פיקוח" דיגיטלי מבוסס AI, שמזהה חריגות, מנתח איומים ומפעיל תגובות אוטומטיות. לדוגמה, במפעל ייצור, הפלטפורמה המשולבת תזהה מכונה פרוצה ותנתק אותה מיד, ללא התערבות אנושית, ותפחית זמן תגובה מימים לשניות.
- אקזיט ענק בסייבר - ארמיס תימכר ב-7 מיליארד דולר
- ארמיס בוחרת בעצמאות: במקום רכישה גייסה 435 מיליון דולר
- המלצת המערכת: כל הכותרות 24/7
קרן Insight Partners השקיעה בארמיס לפי שווי של 1.1 מיליארד דולר ב-2019 , והשווי זינק פי שבע תוך פחות משבע שנים. רק בחודש שעבר, ארמיס גייסה 435 מיליון דולר בשווי 6.1 מיליארד דולר, והתכוננה להנפקה ציבורית ב-2027.
ארמיס בולטת במגזר הרפואי, וכבר מונעת התקפות על מכשירי MRI, ש-40% מהם חשופים לפרצות ישנות.
