מה זה 'AI רעיל', ומה אפשר לעשות כדי למנוע אותו?
כמו שיש תוכן רעיל יש גם AI רעיל שנסמך על התכנים ברשת. האם מניעה או רגולציה יכולה לעכב את מהפכת ה-AI, מה קורה באירופה ואצלנו
בתוך ים ההתלהבות מהבינה המלאכותית — עם היכולת שלה לכתוב, לתרגם, לצייר, להמליץ, להפתיע — צץ מושג חדש שמטריד רגולטורים, ממשלות וחברות טכנולוגיה: AI רעיל.
המונח הזה, שעד לאחרונה נשמע בעיקר באקדמיה ובכנסים סגורים, כבר מופיע במסמכים רשמיים של נציבות האיחוד האירופי. ובזמן שבישראל עוד מתווכחים אם צריך בכלל לפקח על GPT או לתת לו לזרום חופשי, באירופה יש מי שממש מודאגים.
אבל רגע לפני, מה זה אומר ש-AI הוא "רעיל"? למה זה פתאום נחשב לאיום אמיתי? ואיך בכלל בינה מלאכותית — מכונה חסרת כוונה — יכולה להפיץ שנאה, הסתה או מידע שגוי?
בינה מלאכותית לא "רעה" – אבל היא כן עלולה להזיק
המשמעות של "רעילות" בתחום הבינה המלאכותית היא לא שהמודל מקולקל, או שיש בו כוונה לפגוע. הכוונה היא לכך שבלי לשים לב — או בלי שבכלל מישהו התכוון — המודל עלול להפיק תכנים בעייתיים.
- מהפכת ה-AI בהייטק הישראלי: 15 אלף מפתחים כבר בשטח
- OECD מזהיר מפני התפוצצות בועת AI והסלמת מלחמת הסחר
- המלצת המערכת: כל הכותרות 24/7
זה יכול להיות ניסוחים גזעניים, סטריאוטיפים מגדריים, שפה פוגענית, עידוד לאלימות, שיח אנטישמי, הפצת תיאוריות קונספירציה, הצגת עובדות שגויות, או פשוט מידע מעוות שמתחזה לאמת.
וזה קורה לא רק במודלים קטנים או פרוצים. גם מודלים של החברות הגדולות — OpenAI, Anthropic, Meta, Google — עדיין מייצרים לעיתים תכנים כאלה, גם אחרי תהליכי סינון והכשרה.
למה כולם מדברים על זה עכשיו?
כי אנחנו בשלב שבו המודלים הפכו נגישים, חזקים וזמינים לכולם. לא רק אנשי טכנולוגיה, אלא גם ילדים, קמפיינרים פוליטיים, בעלי אתרים, תלמידים ומורים – כולם משתמשים ב-GPT ובדומיו. ובדיוק כשהשימושים מתפשטים, מגיע גל של תקלות: תשובות שכוללות "בדיחות" אנטישמיות, תיאורים שמרמזים שנשים פחות מתאימות לניהול, או הצגת אירועים היסטוריים בצורה חלקית ומוטה. לפעמים אלה טעויות. לפעמים — תוצאה של דאטה לא מפוקח שעליו המודלים עברו אימון.
- ישראל עושה צעד אסטרטגי נוסף בדרך לביסוס מעמדה כמעצמת חדשנות בחלל
- אין לנו מתחרים- הדרך להתחרות זה אם הלקוחות יתחילו לפתח את המוצר בעצמם
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- מה קורה בהייטק הישראלי - מפטרים או מגייסים? הנה התשובה
הבעיה היא שלמרות מאמצים לשפר, אי אפשר לחזות מראש מה יצא. ובמערכת של מיליארדי בקשות ביום, כל מקרה בעייתי עלול להפוך לויראלי, להשפיע על דעת קהל או לייצר נזק תדמיתי, פוליטי או חברתי.
באירופה כבר לא מחכים — הם פועלים
האיחוד האירופי לקח על עצמו להוביל רגולציה עולמית בתחום הבינה המלאכותית. הם ניסחו חוק בשם AI Act שמנסה להגדיר איזה שימושים מותרים, אילו מסוכנים, ומה דורש פיקוח. אבל החקיקה הזו נבנתה בקצב רגוע, והמציאות – דוהרת.
לאחרונה, עם השקת מודלים חדשים כמו GPT-4.5 ו־Claude 3, רגולטורים בגרמניה, צרפת, הולנד ואיטליה נשמעים לחוצים הרבה יותר. הם דורשים שקיפות, הגבלות, סנקציות – ואפילו אחריות פלילית במקרים מסוימים. ברקע, מתנהלים מגעים להקמת גוף בקרה אירופי עצמאי שיפקח על תכני בינה מלאכותית – בדומה למה שנעשה בתחום ההגבלים העסקיים.
מקרים שקרו באמת
בכמה כלי תקשורת באירופה דווח על כך שמודלים פופולריים הפיצו מידע שגוי על פוליטיקאים ערב בחירות, או נתנו המלצה מרומזת על גזע מסוים בבחירת מועמדים לעבודה.
באחד המקרים, GPT חיבר כתבה דמיונית על עיתונאית אמיתית, שבה נטען כי סילפה עובדות בכנס בינלאומי – למרות שהאירוע כלל לא קרה. התוכן הופץ בפורומים אנטי-תקשורתיים, וגרם לה לאיומים אישיים.
ומה קורה בישראל?
כרגע, אין רגולציה מסודרת לבינה מלאכותית. רשות החדשנות פרסמה מסמך עקרונות כללי. משרד המשפטים מקיים דיונים שקטים. אבל בפועל – אין חוק, אין גוף מפקח, ואין מדיניות מחייבת.
עם זאת, במגזר הציבורי כבר מתחילים להבין את הסיכון. גופים ממשלתיים וחלק מהאוניברסיטאות מטמיעים מנגנוני בקרה פנימיים – במיוחד על תכנים שנוצרים אוטומטית.
חברות הטכנולוגיה מוסיפות שכבות סינון, מגבילות גישה למודלים פתוחים, ומנסות לחנך את המשתמשים איך להפעיל את ה-AI בצורה אחראית. הבעיה היא שהרבה מהשיח מתנהל בדיעבד – אחרי שהתוכן כבר הופץ, פגע או השפיע. ולכן, מדינות רבות – לא רק באירופה – מתחילות לדרוש: מנגנוני שקיפות – לדעת מאיפה מגיע המידע שעליו ה-AI מתבסס, הגדרות אחריות – האם החברה אחראית למה שהמודל מייצר? סימון תכנים – חובה לציין כשמדובר ביצירה של AI, סנקציות – קנסות במיליונים על מקרים חמורים במיוחד.
האם זה פתיר?
התשובה מורכבת. בינה מלאכותית לומדת מתוך דאטה – וכשמאמנים אותה על האינטרנט, כולל טוקבקים, פורומים, סרטונים ורשתות חברתיות – הרעילות היא חלק מהמציאות. לא צריך כוונה רעה בשביל שזה יקרה.
האם אפשר לנקות לגמרי? כנראה שלא. אבל כן אפשר לצמצם, לפקח, ולוודא שלפחות בדברים הרגישים – יש בקרה אנושית.
- 1.פשוט מאוד להבין מה זה AI רעיל 13/04/2025 10:46הגב לתגובה זוחברות הימורים כמו PLAYTIKA MOONACTIVE משתמשות בצוותי AI כדי לגרום למשתמשים לבזבז יותר כסף על הימורים הם לא מודים בזה רשמית אבל מהכרות עם השוק זה בידיוק מה שעושים שםוזו רק דוגמא אחת
יואב שפרינגר וגלעד עזרא, מייסדים Apptor.ai צילום פרטיאין לנו מתחרים- הדרך להתחרות זה אם הלקוחות יתחילו לפתח את המוצר בעצמם
שיחה עם יואב שפרינגר- המנכ"ל ושותף מייסד של Apptor.ai
ספר בקצרה על עצמך:
אני במקור מבית חנן בצפון. בצבא שירתי ב-8200, שם גם פגשתי את השותף שלי, גלעד עזרא, ובזמן השירות, עבדנו על פיתוח מודלים של פרדיקציה לצבא כדי לזהות התנהגויות, אבל הרעיון זה להתעסק ב-predictable AI. אחרי הצבא הייתי בפלייטיקה בעולמות ה-AI retention. את הסטארטאפ הקמנו במהלך המלחמה, והתחלנו לרוץ איתו ממש תוך כדי המילואים.
ספר על החברה ומניין בא הרעיון?
אלו דברים דומים שעשינו בצבא. חיפשנו איפה אפשר למקסם את מה שעשינו בצבא ולהשליך על שוק, שהוא ממש בלו אושן עבורנו ואין חברה שעושה משהו דומה. תעשיית ה- direct sales, שהיא מאוד אמריקאית ואנחנו בנינו כמה מודלים של פרדיקציה שעוזרים לחברות direct sales לייצר תקשורת טובה יותר עם הלקוחות שלהן. המודלים מזהים טוב יותר מה הלקוח רוצה לקנות, מה המוצר שכדאי להציע לו ומתי יספיק לקנות, כאשר המטרה היא לטרגט בצורה טובה יותר את הלקוחות דרך המודלים שאנחנו מריצים. זה דומה לאי קומרס אבל יש הבדלים כי דרך המכירה בחברות direct sales היא שונה מעט, ואותן חברות רואות את עצמן כתעשייה נפרדת. למשל הרבהלייף היא לקוחה שלנו, ואם ספורה מבחינים שאני עובד איתם, הם יחשבו "מעולה, חברה דומה לנו." לעומת זאת, אם הרבהלייף היו רואים שאני עובד עם ספורה הם היו חושבים שזה אי קומרס. בשנה אחת הגענו ללקוחות וחברות כמו הרבהלייף, שופ דוט קום, It works! Global ו-Immunotec.
אופן המכירה ב-direct sales זה דרך מפיצים שהם המשווקים את המוצרים של החברה. עד שאנחנו הופענו, כל החברות הללו היו בונות על המפיצים לעשות את עבודת השיווק והמכירות והכל היה קורה דרכם בלי ערוצים נוספים. המפיצים מביאים לקוחות והם מדברים עם לקוחות וכדומה. מה שקורה בפועל זה שמאחר וכיום יש עוד הרבה אלטרנטיבות לעשות הכנסה מ-gig economy ובגלל התחרות הרבה בשוק, אז המודל לפיו הם בונים רק על המפיצים כבר לא עובד. מה שאנחנו מביאים לשולחן זה שאנחנו מייצרים מודלים של פרדיקציה שעושים את הכל באופן אוטומטי, את ה-retention, ההמלצות על מוצרים כאשר אנחנו יודעים לזהות מה כל לקוח יקנה ומתי והחברות כבר לא צריכות לבנות על המפיצים אלא אנחנו עושים את זה בשבילם, הכל כבר הופך לאוטומטי.
מתי הוקמה וכמה עובדים?
קמנו ביולי 2024, אנחנו 10 עובדים, הרוב בישראל ואחת ביוטה.
- חברת הסייבר Echo גייסה 50 מיליון דולר תוך 10 חודשים מאז הקמתה
- Dux נחשפת עם סבב סיד של 9 מיליון דולר
- המלצת המערכת: כל הכותרות 24/7
מי המשקיעים?
זוהר גילון, יובל בר-גיל, ניר גרינברג, רן שריג, אפי כהן ועוד
אלון סטופל, יו"ר רשות החדשנות, קרדיט: חנה טייבישראל עושה צעד אסטרטגי נוסף בדרך לביסוס מעמדה כמעצמת חדשנות בחלל
רשות החדשנות וסוכנות החלל בוחרות ב-Creation Space להקמת מעבדת מו"פ לאומית Access to Space בתקציב של 60 מלש"ח עם מענק ממשלתי של 40 מלש"ח
סוכנות החלל הישראלית ורשות החדשנות יוצאות למהלך משותף להקמת מעבדת מחקר ופיתוח לאומית שנועדה לעשות סדר למי שרוצה לעבוד בחלל. הרעיון פשוט, להוריד מהשולחן את כל מה שמסביב כדי שחברות יוכלו להתעסק בטכנולוגיה עצמה. במקום שכל חברה תמציא את הגלגל מחדש בסוגיות תהליך, תשתיות וקשרים לשיגור, המעבדה אמורה לרכז שירותי ניסוי, פיתוח ושיגור תחת מסגרת אחת. החברה שנבחרה להוביל את המיזם היא Creation Space, והתקציב הכולל עומד על כ-60 מליון שקל, כש-40 מליון שקל מתוכם מגיעים כמענק מאוגם ממשלתי.
המעבדה תפעל תחת המותג Access to Space ותוגדר כתשתית שמלווה חברות מהשלבים המוקדמים של פיתוח מטען ייעודי ועד הפעלה בחלל. זה לא מסתכם רק בהכנה טכנית, אלא בליווי לאורך הדרך עד שמגיעים לרגע שבו המערכת באמת עובדת מחוץ לאטמוספירה. במסגרת ההתחייבות בקול הקורא, המפעיל יעניק לחברות זכאיות הנחה של לפחות 35% ממחירי השוק בשירותים שקשורים לשיגור, ניסוי ופיתוח, ויאפשר שיגור והדגמה של לפחות 15 מטענים ניסיוניים בתוך שלוש השנים הראשונות לפעילות. מבחינת התעשייה, אלה שני מספרים שמגדירים גם מחיר וגם קצב, ולא משאירים את זה ברמת כוונה כללית.
תשתית שמחברת בין מעבדה לחלל
Access to Space אמורה לספק מעטפת מקצה לקצה שכוללת תשתיות פיזיות, שירותים הנדסיים ומקצועיים, ליווי רגולטורי ותמיכה בתהליכי שיגור, תפעול ולוויינות. המטרה היא לגשר בין פיתוח במעבדה לבין הוכחת היתכנות בתנאי חלל, שלב שמוגדר בתעשייה כיקר, מורכב ומלא דרישות, והוא זה שמפיל או מעכב לא מעט חברות קטנות. כשזה עובד, הפיתוח מתקדם מהר יותר כי פחות זמן הולך על תיאומים ויותר זמן הולך על בדיקה אמיתית.
במודל העבודה, חברות יקבלו שירותי מו"פ מותאמים אישית שכוללים בדיקות, אינטגרציה, הכנה לשיגור ותמיכה בשלבי ההפעלה. זה המקום שבו הרבה פרויקטים נתקעים בעולם, כי המעבר מהנדסה על הנייר לשיגור בפועל דורש רצף פעולות שלא תמיד יושב לחברה קטנה בידיים. לצד העבודה על כל פרויקט, הכוונה היא לבנות גם שגרה תפעולית של ניסויים והדגמות, כדי שהמערכת לא תישאר “יכולת על המדף” אלא תעבוד רציף ותייצר ניסיון מצטבר. כשיש רצף כזה, גם קל יותר לתכנן קדימה וגם ללמוד מפרויקט לפרויקט.
- 40 מיליון שקל: רשות החדשנות משקיעה בחמישה אתרי הרצה חדשים לסטארטאפים
- שיקום פצועי המלחמה: 10 מיליון שקל להשקה של 8 פיילוטים טכנולוגיים
- המלצת המערכת: כל הכותרות 24/7
החלטת תל"מ והאיגום התקציבי
המהלך יוצא לדרך בהמשך להחלטת פורום תל"מ מיוני להקצות תקציב ייעודי לתשתית לאומית, תוך איגום משאבים ממשרד החדשנות, המדע והטכנולוגיה, רשות החדשנות, ות"ת, מפא"ת ומשרד האוצר. מאחורי האיגום הזה יש היגיון פרקטי, במקום שכל גוף יפעיל חלק קטן, מנסים לייצר מסלול אחד שמחזיק את כל השרשרת. מבחינת המדינה, זה מבנה שמרכז כלים תקציביים ותפעוליים סביב יעד אחד, תשתית שמשרתת את האקוסיסטם המקומי ומקלה על כניסה של חברות צעירות לתחום. זה גם מסדר את התמונה ברמת האחריות, מי עושה מה, מי מממן מה, ואיך מתקדמים בלי להיתקע בין גופים.
.jpg)