בינה מלאכותית
צילום: טוויטר

מה זה 'AI רעיל', ומה אפשר לעשות כדי למנוע אותו?

כמו שיש תוכן רעיל יש גם AI רעיל שנסמך על התכנים ברשת. האם מניעה או רגולציה יכולה לעכב את מהפכת ה-AI, מה קורה באירופה ואצלנו

רוי שיינמן | (1)
נושאים בכתבה מהפכת ה-AI

בתוך ים ההתלהבות מהבינה המלאכותית — עם היכולת שלה לכתוב, לתרגם, לצייר, להמליץ, להפתיע — צץ מושג חדש שמטריד רגולטורים, ממשלות וחברות טכנולוגיה: AI רעיל.

המונח הזה, שעד לאחרונה נשמע בעיקר באקדמיה ובכנסים סגורים, כבר מופיע במסמכים רשמיים של נציבות האיחוד האירופי. ובזמן שבישראל עוד מתווכחים אם צריך בכלל לפקח על GPT או לתת לו לזרום חופשי, באירופה יש מי שממש מודאגים.

אבל רגע לפני, מה זה אומר ש-AI הוא "רעיל"? למה זה פתאום נחשב לאיום אמיתי? ואיך בכלל בינה מלאכותית — מכונה חסרת כוונה — יכולה להפיץ שנאה, הסתה או מידע שגוי?

בינה מלאכותית לא "רעה" – אבל היא כן עלולה להזיק

המשמעות של "רעילות" בתחום הבינה המלאכותית היא לא שהמודל מקולקל, או שיש בו כוונה לפגוע. הכוונה היא לכך שבלי לשים לב — או בלי שבכלל מישהו התכוון — המודל עלול להפיק תכנים בעייתיים.

זה יכול להיות ניסוחים גזעניים, סטריאוטיפים מגדריים, שפה פוגענית, עידוד לאלימות, שיח אנטישמי, הפצת תיאוריות קונספירציה, הצגת עובדות שגויות, או פשוט מידע מעוות שמתחזה לאמת.

וזה קורה לא רק במודלים קטנים או פרוצים. גם מודלים של החברות הגדולות — OpenAI, Anthropic, Meta, Google — עדיין מייצרים לעיתים תכנים כאלה, גם אחרי תהליכי סינון והכשרה.

למה כולם מדברים על זה עכשיו?

כי אנחנו בשלב שבו המודלים הפכו נגישים, חזקים וזמינים לכולם. לא רק אנשי טכנולוגיה, אלא גם ילדים, קמפיינרים פוליטיים, בעלי אתרים, תלמידים ומורים – כולם משתמשים ב-GPT ובדומיו. ובדיוק כשהשימושים מתפשטים, מגיע גל של תקלות: תשובות שכוללות "בדיחות" אנטישמיות, תיאורים שמרמזים שנשים פחות מתאימות לניהול, או הצגת אירועים היסטוריים בצורה חלקית ומוטה. לפעמים אלה טעויות. לפעמים — תוצאה של דאטה לא מפוקח שעליו המודלים עברו אימון.

קיראו עוד ב"BizTech"

הבעיה היא שלמרות מאמצים לשפר, אי אפשר לחזות מראש מה יצא. ובמערכת של מיליארדי בקשות ביום, כל מקרה בעייתי עלול להפוך לויראלי, להשפיע על דעת קהל או לייצר נזק תדמיתי, פוליטי או חברתי.

באירופה כבר לא מחכים — הם פועלים

האיחוד האירופי לקח על עצמו להוביל רגולציה עולמית בתחום הבינה המלאכותית. הם ניסחו חוק בשם AI Act שמנסה להגדיר איזה שימושים מותרים, אילו מסוכנים, ומה דורש פיקוח. אבל החקיקה הזו נבנתה בקצב רגוע, והמציאות – דוהרת.

לאחרונה, עם השקת מודלים חדשים כמו GPT-4.5 ו־Claude 3, רגולטורים בגרמניה, צרפת, הולנד ואיטליה נשמעים לחוצים הרבה יותר. הם דורשים שקיפות, הגבלות, סנקציות – ואפילו אחריות פלילית במקרים מסוימים. ברקע, מתנהלים מגעים להקמת גוף בקרה אירופי עצמאי שיפקח על תכני בינה מלאכותית – בדומה למה שנעשה בתחום ההגבלים העסקיים.

מקרים שקרו באמת

בכמה כלי תקשורת באירופה דווח על כך שמודלים פופולריים הפיצו מידע שגוי על פוליטיקאים ערב בחירות, או נתנו המלצה מרומזת על גזע מסוים בבחירת מועמדים לעבודה.

באחד המקרים, GPT חיבר כתבה דמיונית על עיתונאית אמיתית, שבה נטען כי סילפה עובדות בכנס בינלאומי – למרות שהאירוע כלל לא קרה. התוכן הופץ בפורומים אנטי-תקשורתיים, וגרם לה לאיומים אישיים.

ומה קורה בישראל?

כרגע, אין רגולציה מסודרת לבינה מלאכותית. רשות החדשנות פרסמה מסמך עקרונות כללי. משרד המשפטים מקיים דיונים שקטים. אבל בפועל – אין חוק, אין גוף מפקח, ואין מדיניות מחייבת.

עם זאת, במגזר הציבורי כבר מתחילים להבין את הסיכון. גופים ממשלתיים וחלק מהאוניברסיטאות מטמיעים מנגנוני בקרה פנימיים – במיוחד על תכנים שנוצרים אוטומטית.


חברות הטכנולוגיה מוסיפות שכבות סינון, מגבילות גישה למודלים פתוחים, ומנסות לחנך את המשתמשים איך להפעיל את ה-AI בצורה אחראית. הבעיה היא שהרבה מהשיח מתנהל בדיעבד – אחרי שהתוכן כבר הופץ, פגע או השפיע. ולכן, מדינות רבות – לא רק באירופה – מתחילות לדרוש: מנגנוני שקיפות – לדעת מאיפה מגיע המידע שעליו ה-AI מתבסס, הגדרות אחריות – האם החברה אחראית למה שהמודל מייצר? סימון תכנים – חובה לציין כשמדובר ביצירה של AI, סנקציות – קנסות במיליונים על מקרים חמורים במיוחד.

האם זה פתיר?

התשובה מורכבת. בינה מלאכותית לומדת מתוך דאטה – וכשמאמנים אותה על האינטרנט, כולל טוקבקים, פורומים, סרטונים ורשתות חברתיות – הרעילות היא חלק מהמציאות. לא צריך כוונה רעה בשביל שזה יקרה.

האם אפשר לנקות לגמרי? כנראה שלא. אבל כן אפשר לצמצם, לפקח, ולוודא שלפחות בדברים הרגישים – יש בקרה אנושית.

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    פשוט מאוד להבין מה זה AI רעיל 13/04/2025 10:46
    הגב לתגובה זו
    חברות הימורים כמו PLAYTIKA MOONACTIVE משתמשות בצוותי AI כדי לגרום למשתמשים לבזבז יותר כסף על הימורים הם לא מודים בזה רשמית אבל מהכרות עם השוק זה בידיוק מה שעושים שםוזו רק דוגמא אחת
אילון מאסק וג'ף בזוס
צילום: טוויטר

כשהענן עולה לחלל: המרוץ החדש של מאסק ובזוס שעשוי לשנות את עולם הבינה המלאכותית

החלל תמיד היה זירת תחרות בין מעצמות ואנשי חזון, אבל המרוץ הנוכחי שונה מכל מה שראינו. אילון מאסק וג'ף בזוס, שני המיליארדרים שכבר שינו את תעשיית החלל, מתמקדים כעת ביעד חדש: להעביר את מרכזי הנתונים העצומים אל מעל לעננים. מדובר בפרויקט שנשמע כמו מדע בדיוני, אבל הוא כבר בשלבי פיתוח, ועשוי לשנות את הדרך שבה אנחנו חושבים על מחשוב, אנרגיה ובינה מלאכותית

אדיר בן עמי |

בלו אוריג'ין, חברת החלל שבשליטת ג'ף בזוס, פועלת בשנה האחרונה לפיתוח טכנולוגיות שיאפשרו הקמת מרכזי נתונים במסלול סביב כדור הארץ, המיועדים בראש ובראשונה לאימון מודלים מתקדמים של בינה מלאכותית. במקביל, ספייס אקס של אילון מאסק בוחנת שימוש בלווייני סטארלינק מהדור הבא כתשתית מבוזרת של כוח מחשוב, שתפעל כמעין רשת של מרכזי נתונים בחלל. השאלה היא לא רק מי יגיע ראשון, אלא האם הרעיון הזה בכלל בר ביצוע, ומה המחיר – הן הטכנולוגי והן האנושי.


למה בכלל לשלוח מחשבים לחלל?

הרעיון נשמע מופרך במבט ראשון. למה לקחת משהו שעובד היטב על הקרקע ולשלוח אותו למקום שהגישה אליו כרוכה במיליוני דולרים? התשובה טמונה בבעיה אחת גדולה: אנרגיה. מרכזי נתונים מודרניים, במיוחד אלה שמריצים מודלים של בינה מלאכותית, בולעים כמויות מטורפות של חשמל. אימון מודל AI מתקדם אחד יכול לדרוש חשמל שמספיק לכמה עיירות שלמות למשך חודשים. המחשבים האלה גם מפיקים חום רב, שדורש מערכות קירור ענקיות שצורכות עוד אנרגיה.

בחלל, המשוואה משתנה לחלוטין. השמש זורחת כמעט ללא הפסקה, והאנרגיה הסולארית זמינה בשפע. אין צורך במערכות קירור כי החום מתפזר אל החלל הקר. בנוסף, אין צורך בתשתיות ענק של חוות שרתים קרקעיות שצורכות קרקע ומשאבים. זה נשמע מושלם, אבל על מנת להגשים את החזון הזה נדרשים פתרונות לאתגרים הנדסיים מורכבים במיוחד.

כדי להגיע להיקף מחשוב המקביל למרכז נתונים גדול על הקרקע, בהספק של סדר גודל של גיגה־וואט, יידרש מערך של אלפי לוויינים במסלול, כאשר כל אחד מהם מצויד ביכולת חישוב של עשרות עד מאות קילוואט. מעבר לאתגרי השיגור עצמם, מדובר במערכת מורכבת שמציבה דרישות חריגות בתחומי התכנון, התחזוקה והבטיחות. כל לוויין נדרש לפעול בסביבה עתירת קרינה, להתמודד עם תנאי טמפרטורה קיצוניים ועם חלקיקי אבק חלל, ובמקביל לשמור על קישור תקשורת מהיר, רציף ואמין עם הקרקע ועם לוויינים אחרים במערך, כדי לאפשר העברת נתונים בקצבים גבוהים.

בין חלום למציאות

בלו אוריג'ין מתמקדת בפיתוח לוויינים מתקדמים שמשלבים מעבדים חזקים, מערכות אנרגיה סולארית ענקיות ומערכות תקשורת לייזר שיכולות להעביר נתונים במהירויות שמתקרבות לזו שיש במרכזי נתונים קרקעיים. החברה גם חוקרת כיצד לשדרג לוויינים שכבר נמצאים במסלול – אולי באמצעות רובוטים או חלליות שירות אוטונומיות. ספייס אקס, מצידה, מנסה למנף את רשת הסטארלינק הקיימת. הרעיון הוא לשדרג את הלוויינים הקיימים או להוסיף דור חדש שמותאם לחישוב AI, ולהשתמש ברשת הענקית כבר קיימת כדי ליצור תשתית מבוזרת של מחשוב.

עם זאת, הטכנולוגיה היא רק חלק מהפאזל. אחת השאלות הגדולות היא איך מבצעים תחזוקה בחלל. על הקרקע, אם שרת מתקלקל, טכנאי פשוט מגיע ומחליף אותו. בחלל, הדבר הזה הרבה יותר מסובך. צריך לתכנן מראש מערכות גיבוי, יכולת לתקן מרחוק, או אפילו לשלוח משימות תיקון רובוטיות. כל תקלה יכולה להפוך לוויין בשווי מיליוני דולרים לגוש מתכת חסר תועלת. השאלה האחרת היא תקשורת. כדי שמרכז נתונים בחלל יהיה שימושי, הוא צריך להיות מחובר למשתמשים על הקרקע בקו מהיר וללא תקלות. זה דורש תשתית קרקעית ענקית של תחנות קרקע, מערכות אנטנות ופרוטוקולי תקשורת מתקדמים. כל עיכוב של מילישנייה יכול להיות קריטי כשמדובר באימון מודלי AI בזמן אמת או בעיבוד נתונים רגישים.