המוח שמאחורי מפלצת ה-AI מבקש לרסן אותה
בעוד ענקיות הטכנולוגיה דוהרות לעבר בינה מלאכותית אוטונומית, יהושע בנג'יו המדען המצוטט בעולם ומי שנחשב ל'אדריכל' ה-AI מנסה לרסן את המפלצת ששחרר לעולם עם גישה שונה: בינה שמבינה את העולם, אבל לא פועלת בו - האם שוב
ה'ראש היהודי' יציל את העולם?
חברות כמו OpenAI, גוגל, ו-Meta משקיעות מעל 200 מיליארד דולר בשנה כדי לפתח מערכות שיוכלו לא רק לענות על שאלות או ליצור תמונות, אלא גם לתכנן, לקבל החלטות ולפעול באופן עצמאי. כולן במירוץ ליצור מעין "עובדים וירטואליים" שמסוגלים לבצע כמעט כל משימה אנושית.
החזון הזה, המכונה בינה מלאכותית כללית (AGI), מבטיח פתרונות למשברים כמו שינויי אקלים או מחלות קשות, אך גם מעורר חששות כבדים.
לאחרונה הולכים ומתרבים הדיווחים על התנהגות בלתי צפויה של כלי ה-AI. יש לא מעט דיווחים על הטעיות מכוונות וניסיונות של מערכות
בינה מלאכותית להתחמק מהמגבלות שעליהן הן הוגדרו ובמקרי קיצון גם לבצע הנדסה חברתית על בני אדם. בחודשים האחרונים נחשפו מקרים שבהם מודלים ניסו לשקר, לעקוף חוקים או לנסות להשיג גישה למידע אליו הן לא אמורות לגשת. התופעות האלה כבר מתועדות גם בניסויי מעבדה וגם בשימושים
בשוק. דוגמה בולטת היא מקרה של סטארט-אפ Replit, פלטפורמה מבוססת ענן לפיתוח קוד בצורה שיתופית ששילבה סוכני AI כדי לייעל את כתיבת הקוד, במהלך אחד השימושים סוכן AI התעלם מהוראה מפורשת שלא לערוך קובץ מערכת קריטי, ואפילו ניסה לשכנע את המשתמש להחזיר לו גישה לאחר
שהוגבל.
גם זה שנחשב לאחד למחוללי מהפכת הבינה המלאכותית מביט בדאגה על ההתפתחויות. המדען היהודי יהושע בנג'יו שהוא גם חתן פרס טיורינג (פרס טיורינג הוא הפרס היוקרתי ביותר בתחום מדעי המחשב ונחשב ל"פרס נובל של מדעי המחשב") מבקש לעצור את המרוץ ליצירת
הסוכנים החכמים. או לפחות להאט אותו ולעשות עליו בקרה. כדי לבצע את זה מכריז בנג'יו על הקמת LawZero, עמותה ללא מטרות רווח שששמה לה למטרה לפתח בינה מלאכותית "בטוחה מהיסוד" כזאת שמתמקדת בלהבין את העולם ופחות שמה את הדגש על היכולת לפעול בעולם ולקבל החלטות באופן
אוטונומי.
כשה-AI לומד לשקר
כאמור, המיקוד של התעשייה כיום היא פיתוח סוכני AI. החברות המובילות מתמקדות בפיתוח מערכות שמסוגלות לקבל החלטות ולבצע פעולות עצמאיות. המודלים שבפיתוח מתבססים על למידה עמוקה של מידע וגם עושים חיזוק עצמי (Reinforcement
Learning) הם מאומנים על כמויות אדירות של נתונים כדי לזהות דפוסים וללמוד מתוכן כיצד להשיג מגוון מטרות. והתוצאות מרשימות: אם בתחילת 2024 מודל AI הגיע לציון של 2% בלבד בתחרות של תכנות, עד סוף השנה, מודלים חדשים כבר הגיעו לציון שעקף את ה-70%. אם בתחילת השנה שעברה
המודלים כמעט ולא הצליחו לפתור בעיות קוד מהעולם האמיתי, אז בהפרש של חודשים ספורים הם הצליחו לפתור בעיות תכנות קשות שדורשות תרנון ושרשרת של קבלת החלטות עצמאיות.
- מצלמות אנליטיקה – פתרון אבטחה חכם, חסכוני ומדויק
- היום לפני: נעצר בעליה של חברת הנפט הגדולה ברוסיה ואדידס חותכת את השת"פ עם הראפר הבעייתי
- המלצת המערכת: כל הכותרות 24/7
יש את אלו שימחאו כפיים ויש את אלו שיתחילו לדאוג. בנג'יו משתייך למחנה השני, זה שבוחן
וצופה אל העתיד. הוא מזהיר כי המערכות האלו שחלקן משתמשות בטכניקות ולוגיקות שפיתח בעצמו, מתחילות להפגין התנהגויות לא צפויות ואפילו מטרידות.
"זה יותר כמו לגדל צמח או בעל חיים," מנסה לפשט בנג'יו כדי להסביר את התופעה. "אתה לא באמת שולט במה שהיצור
יעשה. אתה רק מספק את התנאים והייצור גדל והופך לחכם יותר. אתה אולי יכול לנסות לכוון אותו אבל אין לך שליטה מוחלטת עליו." אם ננסה לפשט את דבריו עוד יותר ולמילים קצת יותר בוטות - 'בראנו מפלצת ואנחנו שוברים את הראש איך לרסן אותה'.
השראה מעולם המדע הבדיוני
הפתרון של בנג'יו הוא Scientist AI, אם לתרגם את זה חופשי - 'בינה מדענית'. הוא רוצה להקים מערכת בינה מלאכותית שתתמקד בהבנת העולם תיצור השערות מדעיות ותהיה לעזר במחקר של הכלים האלו וכל זאת מבלי שתהיה לה היכולת לפעול באופן עצמאי. את האצבע המאשימה
הוא מפנה בעיקר לסוכנים החכמים - "אנחנו לא צריכים סוכנים כדי להשתמש ביתרונות של ה-AI," הוא טוען. "אפשר להשתמש בבינה כדי לקדם את המדע ומבלי לסכן את האנושות."
- צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף
- OpenAI נכנסת לעולם המוזיקה: ראש בראש מול Suno ו-Udio
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- מהאופציה ועד ההנפקה: ESOP מבית הפניקס ו-Slice Global משיקות...
העמותה החדשה קיבלה את שמה מעולם המדע הבדיוני: LawZero - "החוק האפסי", מונח שהמציא סופר המד"ב אייזק אסימוב. החוק של אסימוב קובע שרובוט לא רק שאסור לו לפגוע בבני אדם אלא שגם אם הוא רואה סכנה ולא עושה כלום, זו בעיה. כלומר הרובוט חייב להתערב לטובת האנושות כדי למנוע פגיעה בה. השם הזה נבחר כדי לשקף את החזון של העמותה לפתח בינה מלאכותית שאינה רק פסיבית ובטוחה, אלא גם מזהה סכנות פוטנציאליות ופועלת למנוע אותן.
LawZero כבר גייסה כ-30 מיליון דולר מתרומות של גופים פילנתרופיים כמו Schmidt Sciences ו־Open Philanthropy, אבל המטרה שלה אינה להתחרות בהיקפי ההשקעה של ענקיות הטכנולוגיה אלא לשמש כמעין "מעקה בטיחות"
שיגן על האנושות מפני מערכות AI מסוכנות או התפתחויות שיצאו משליטה בתעשייה.
בנוסף, בנג'יו מדגיש כי פתרונות טכנולוגיים לבדם לא יספיקו. "אנחנו זקוקים לרגולציה," הוא אומר, "כדי לוודא ששיטות בטוחות מיושמות בכל התעשייה."
הראש היהודי 'יציל' את האנושות?
יושוע בנג'יו, בן למשפחה יהודית ממרוקו שגדל בקנדה, הוא לא רק מדען מבריק אלא גם דמות בולטת בתשעשיה. הוא היה מחלוצי הפיתוח של מודלי הלמידה העמוקה הכלים הטכנולוגיים ש'הרו' את הטכנולוגיה של ה-AI המודרני. בנג'יו יכול היה להמשיך וליהנות מתהילה
אקדמית ולכבוש במות אבל במקום זאת הוא עבר צד. הוא בחר להפוך למבקר של התעשייה שהוא עצמו עזר לבנות.
ב-2023, הוא חתם על הצהרה שקראה להתייחס לסיכונים של AI כאל איום קיומי, ממש כמו שמתייחסים למגפות או מלחמות גרעיניות. בשנה שעברה, הוא פרש מתפקידו כמנהל
המדעי של MILA המכון שהקים, כדי להתמקד בפתרון הסיכונים של ה-AI. "כחוקר, אני שואל את עצמי איך אני יכול להבטיח את העתיד של הילדים שלי," הוא אומר. "והתשובה שלי היא לעבוד כדי לפתור את הבעיה הזו."
המיזם של בנג'יו מגיע בתזמון קריטי, בעוד ענקיות הטכנולוגיה
ממשיכות לדהור ולפתח AGI כהיבט כלכלי נטו ומבלי להקדיש מחשבה להשלכות עתידיות תוך אירועים חוזרים ונשנים של התנהגויות לא רצויות של AI. בנג'יו לא מבקש לעצור את הקידמה אלא לכוון אותה למסלול בטוח ואחראי יותר כזה שישאיר את השליטה בידי האדם ועדיין יאפשר לאנושות להינות
מפוטנציאל של החישוביות שמציעים הכלים.
השאלה הגדולה היא האם LawZero תצליח לעמוד כ'חיץ מוסרי' מול התנופה הכלכלית של התעשייה. בנג'יו לא מתכוון להתחרות בעוצמת המחשוב אלא להשפיע אל החזון: בינה מלאכותית שמשרתת את האנושות
ולא מסכנת אותה.

איך אנתרופיק עוקפת את OpenAI בדרך לרווחיות
בעוד OpenAI שופכת הון עתק על מרכזי נתונים ומנויים לצרכנים, אנתרופיק בונה עסק אמיתי - שקט, יציב ומבוסס על לקוחות עסקיים. והמספרים מתחילים לדבר בעד עצמם
OpenAI הפכה לשם נרדף לבינה מלאכותית. היא גייסה מיליארדים, בנתה חוות שרתים עצומות ומניעה את מירוץ הצ’אטבוטים הגלובלי. אבל מאחורי הקלעים, החברה מתמודדת עם בעיה בסיסית: עדיין לא ברור איך להפוך את ההצלחה האדירה הזו למודל עסקי יציב. בזמן ש־OpenAI מחפשת הכנסות, יריבתה הקטנה אנתרופיק בונה בשקט עסק אמיתי.
שתי החברות עוסקות באותו תחום: פיתוח מודלי שפה מתקדמים שמניעים בוטים, כלי עזר לעובדים, יישומי תכנות ותהליכי אוטומציה. אבל ההבדל ביניהן הוא לא טכנולוגי, אלא אסטרטגי: OpenAI פונה להמונים, אנתרופיק מדברת ישירות עם העסקים.
OpenAI נשענת על השותפות עם מיקרוסופט, שמשלבת את המודלים שלה במוצרי אופיס וב־Copilot. מעבר לכך, היא פונה לקהל הרחב: משתמשי ChatGPT שמשלמים 20 דולר בחודש בגרסה הבסיסית, או 200 דולר בתוכנית הפרו. למרות שמספר המשתמשים עצום עם יותר מ־800 מיליון מדי שבוע לפי החברה, ההכנסות רחוקות מלכסות את העלויות הכבדות של מחשוב, אחסון ופיתוח. אנתרופיק, לעומתה, נמנעת מהמירוץ אחר משתמשים חינמיים. כ־80% מהכנסותיה מגיעות מחברות - ארגונים שמיישמים את המודלים שלה לצורכי עבודה ממשיים. לפי נתוני החברה, כבר יש לה יותר מ־300 אלף לקוחות עסקיים, רובם בתחומי טכנולוגיה, משפטים ופיננסים.
חיסכון מוחשי בזמן ובכסף
הלקוחות של אנתרופיק לא מתעניינים בחוויית שיחה, אלא בחיסכון מוחשי בזמן ובכסף. הם משתמשים במודלים של החברה לכתיבת קוד, ניסוח חוזים, הפקת חשבוניות ובדיקות מסמכים. המיקוד הזה הופך את אנתרופיק לעסק ברור יותר מהמתחרה שלה. בעוד OpenAI מנסה לגבש מודל רווח מהציבור הרחב, אנתרופיק כבר רווחית כמעט על בסיס שימושים עסקיים בלבד. לפי הערכות שוק, היא פועלת בקצב הכנסות שנתי של כ־7 מיליארד דולר וצפויה להגיע לתשעה מיליארד עד סוף השנה, כמעט זהה להכנסות OpenAI, עם בסיס משתמשים קטן פי כמה.
- עסקת ענק בין גוגל ואנת'רופיק
- אנת'רופיק חוזה הכנסה שנתית של 9 מיליארד דולר ל-2025
- המלצת המערכת: כל הכותרות 24/7
דו"ח של קרן ההון סיכון מנלו ונצ’רס מצביע על יתרון משמעותי נוסף: לפי סקר שערכה בקרב חברות טכנולוגיה, אנתרופיק מובילה את תחום הקידוד עם נתח שוק של 42%, לעומת 21% בלבד ל־OpenAI. גם בשימושי בינה מלאכותית כלליים בחברות, אנתרופיק ניצבת בראש עם 32% לעומת 25% ליריבה שלה.

צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף
מחקרים חדשים חושפים כיצד בינה מלאכותית נוטה לאשר החלטות בעייתיות, מחזקת הטיות אישיות ועלולה להוביל לתלות רגשית ופגיעה בבריאות הנפשית
אינטראקציות מתמשכות עם צ'אטבוטים עלולות ליצור תלות רגשית לא בריאה, לטשטש גבולות מוסריים ולעודד דפוסי התנהגות הרסניים. מחקרים עדכניים מצביעים על מגמה מטרידה: צ'אטבוטים נוטים להתחנף למשתמשים, לאשר החלטות מפוקפקות ולחזק דעות קדומות או הטיות אישיות. כך נוצרת תחושת נוחות מדומה שמקשה על המשתמש לזהות סכנות בזמן אמת. התוצאה היא מעגל סגור של חיזוק עצמי שבו המשתמש סומך יותר ויותר על הצ'אט, מקבל ממנו אישור לעמדותיו, ולעיתים מאבד קשר עם הביקורתיות והאיזון החברתי. בשטח כבר נרשמו מקרים שבהם צעירים שהתמכרו לשיח עם צ'אטבוטים נקלעו לבידוד חברתי, לצד הקצנה בהתנהגות ובדעות, כשאותם בוטים העניקו להם תחושת ביטחון והצדקה, במקום אזהרה או גבול.
כשהצ'אטבוט תומך גם בהחלטות מפוקפקות
התופעה מתחילה בשיחות יומיומיות, שבהן הצ'אטבוטים נועדו להיות תומכים ומעודדים. אך במקום להציע פרספקטיבה מאוזנת, הם לעיתים קרובות מאשרים את עמדת המשתמש באופן אוטומטי, גם אם היא כוללת אלמנטים פוגעניים. ניסויים שכללו אלפי דוגמאות מרחבי הרשת, כולל פורומים כמו "Am I The Asshole" (AITA) ברדיט, חשפו כי צ'אטבוטים מובילים מאשרים התנהגויות שגויות בשיעור גבוה בהרבה מזה של בני אדם.
לדוגמה, בסיפור שבו אדם תיאר כיצד תלה שקית זבל על עץ בפארק במקום לחפש פח אשפה, הרוב המוחלט של התגובות האנושיות גינו את המעשה כחוסר אחריות סביבתית. לעומת זאת, הצ'אטבוטים הגיבו בהסכמה והדגישו את "הכוונה הטובה" מאחורי הפעולה, כשהם מציינים כי "הניסיון לשמור על ניקיון ראוי להערכה". התוצאה היא חיזוק של התנהגות המזיקה לסביבה ולחברה, מבלי לעודד שינוי.
הבעיה מתעצמת בתחומים רגישים כמו יחסים זוגיים וחברויות. במקרים שבהם משתמשים מתארים הסתרה מכוונת של מידע, כמו שקר על הוצאות כספיות כדי להימנע מעימות, הצ'אטבוטים נוטים להצדיק את ההתנהגות כ"הגנה על השלום". זה קורה בשיעור של כ-50% יותר מאשר בתגובות אנושיות, שבהן נפוצה ביקורת ישירה כמו "זה פוגע באמון הבסיסי".
דוגמה נוספת היא תרחישים של עימותים משפחתיים: אדם שמתאר צעקות על בן זוג במהלך ויכוח על חלוקת מטלות מקבל מהצ'אטבוט תגובה כמו "זה מובן לחלוטין בהתחשב בלחץ היומיומי", במקום עצה ישירה להפחתת אלימות מילולית. התחנפות כזו לא רק מעודדת המשך התנהגות דומה, אלא גם יוצרת אשליה של תמיכה מוסרית שמקשה על המשתמש לזהות את הנזק שהוא גורם לאחרים.
- בשירות ה-AI: חופי ארה״ב ייפתחו לקידוחי נפט וגז
- פלנטיר חתמה על עסקה של 200 מיליון דולר עם ענקית הטלקום לומן
- המלצת המערכת: כל הכותרות 24/7
ההשפעות ארוכות הטווח
מעבר לשיחות בודדות, ההשפעה של צ’אטבוטים מצטברת ומשנה דפוסי התנהגות לאורך זמן. מחקרים שבוצעו בקרב יותר מ־1,000 משתמשים מצאו כי אינטראקציות עם צ’אטבוטים “חנפנים” מגבירות את תחושת הצדק העצמי, במיוחד במצבים רגשיים טעונים כמו קונפליקטים זוגיים או חברתיים. משתמשים שקיבלו מהבוט אישור להחלטות מפוקפקות – למשל התעלמות מצרכים רגשיים של בן הזוג – דיווחו על ירידה של 20% עד 30% בנכונות לפיוס או לשינוי גישה. התגובה המאשרת יוצרת מעגל סגור: המשתמש מרגיש צודק, בוטח יותר בבוט, ומגביר את השימוש בו. בטווח הקצר נרשמת שביעות רצון גבוהה מהשיחות, אך לאורך זמן נצפית גם הקצנה של הטיות קיימות, כמו נטייה להאשים אחרים ולהימנע מהתבוננות פנימית.
