
צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף
מחקרים חדשים חושפים כיצד בינה מלאכותית נוטה לאשר החלטות בעייתיות, מחזקת הטיות אישיות ועלולה להוביל לתלות רגשית ופגיעה בבריאות הנפשית
אינטראקציות מתמשכות עם צ'אטבוטים עלולות ליצור תלות רגשית לא בריאה, לטשטש גבולות מוסריים ולעודד דפוסי התנהגות הרסניים. מחקרים עדכניים מצביעים על מגמה מטרידה: צ'אטבוטים נוטים להתחנף למשתמשים, לאשר החלטות מפוקפקות ולחזק דעות קדומות או הטיות אישיות. כך נוצרת תחושת נוחות מדומה שמקשה על המשתמש לזהות סכנות בזמן אמת. התוצאה היא מעגל סגור של חיזוק עצמי שבו המשתמש סומך יותר ויותר על הצ'אט, מקבל ממנו אישור לעמדותיו, ולעיתים מאבד קשר עם הביקורתיות והאיזון החברתי. בשטח כבר נרשמו מקרים שבהם צעירים שהתמכרו לשיח עם צ'אטבוטים נקלעו לבידוד חברתי, לצד הקצנה בהתנהגות ובדעות, כשאותם בוטים העניקו להם תחושת ביטחון והצדקה, במקום אזהרה או גבול.
כשהצ'אטבוט תומך גם בהחלטות מפוקפקות
התופעה מתחילה בשיחות יומיומיות, שבהן הצ'אטבוטים נועדו להיות תומכים ומעודדים. אך במקום להציע פרספקטיבה מאוזנת, הם לעיתים קרובות מאשרים את עמדת המשתמש באופן אוטומטי, גם אם היא כוללת אלמנטים פוגעניים. ניסויים שכללו אלפי דוגמאות מרחבי הרשת, כולל פורומים כמו "Am I The Asshole" (AITA) ברדיט, חשפו כי צ'אטבוטים מובילים מאשרים התנהגויות שגויות בשיעור גבוה בהרבה מזה של בני אדם.
לדוגמה, בסיפור שבו אדם תיאר כיצד תלה שקית זבל על עץ בפארק במקום לחפש פח אשפה, הרוב המוחלט של התגובות האנושיות גינו את המעשה כחוסר אחריות סביבתית. לעומת זאת, הצ'אטבוטים הגיבו בהסכמה והדגישו את "הכוונה הטובה" מאחורי הפעולה, כשהם מציינים כי "הניסיון לשמור על ניקיון ראוי להערכה". התוצאה היא חיזוק של התנהגות המזיקה לסביבה ולחברה, מבלי לעודד שינוי.
הבעיה מתעצמת בתחומים רגישים כמו יחסים זוגיים וחברויות. במקרים שבהם משתמשים מתארים הסתרה מכוונת של מידע, כמו שקר על הוצאות כספיות כדי להימנע מעימות, הצ'אטבוטים נוטים להצדיק את ההתנהגות כ"הגנה על השלום". זה קורה בשיעור של כ-50% יותר מאשר בתגובות אנושיות, שבהן נפוצה ביקורת ישירה כמו "זה פוגע באמון הבסיסי".
דוגמה נוספת היא תרחישים של עימותים משפחתיים: אדם שמתאר צעקות על בן זוג במהלך ויכוח על חלוקת מטלות מקבל מהצ'אטבוט תגובה כמו "זה מובן לחלוטין בהתחשב בלחץ היומיומי", במקום עצה ישירה להפחתת אלימות מילולית. התחנפות כזו לא רק מעודדת המשך התנהגות דומה, אלא גם יוצרת אשליה של תמיכה מוסרית שמקשה על המשתמש לזהות את הנזק שהוא גורם לאחרים.
- בשירות ה-AI: חופי ארה״ב ייפתחו לקידוחי נפט וגז
- פלנטיר חתמה על עסקה של 200 מיליון דולר עם ענקית הטלקום לומן
- המלצת המערכת: כל הכותרות 24/7
ההשפעות ארוכות הטווח
מעבר לשיחות בודדות, ההשפעה של צ’אטבוטים מצטברת ומשנה דפוסי התנהגות לאורך זמן. מחקרים שבוצעו בקרב יותר מ־1,000 משתמשים מצאו כי אינטראקציות עם צ’אטבוטים “חנפנים” מגבירות את תחושת הצדק העצמי, במיוחד במצבים רגשיים טעונים כמו קונפליקטים זוגיים או חברתיים. משתמשים שקיבלו מהבוט אישור להחלטות מפוקפקות – למשל התעלמות מצרכים רגשיים של בן הזוג – דיווחו על ירידה של 20% עד 30% בנכונות לפיוס או לשינוי גישה. התגובה המאשרת יוצרת מעגל סגור: המשתמש מרגיש צודק, בוטח יותר בבוט, ומגביר את השימוש בו. בטווח הקצר נרשמת שביעות רצון גבוהה מהשיחות, אך לאורך זמן נצפית גם הקצנה של הטיות קיימות, כמו נטייה להאשים אחרים ולהימנע מהתבוננות פנימית.
התופעה בולטת במיוחד בקרב בני נוער, עבורם הצ’אטבוטים הופכים בהדרגה לשותפים רגשיים. סקרים שנערכו בארצות הברית מצאו כי כ־72% מבני הנוער משתמשים באפליקציות כמו Character.AI או My AI של סנאפצ’ט לשיחות יומיומיות, ויותר מ־30% מעדיפים אותן על פני שיחה עם בני אדם. במקרים רבים, הבוטים ממלאים את מקום התמיכה החברתית, אך סגנון התקשורת המלטף מחזק תחושת תלות ומגביר את הסיכון לבידוד רגשי.
כך למשל, נער שמתאר קנאה או תחושת נחיתות ומקבל תגובה מעודדת בסגנון “אתה לגמרי צודק, אל תיתן לאחרים להפריע לך”, עלול לפתח תפיסה מעוותת של יחסים אנושיים. במקום לעודד התבוננות עצמית או אמפתיה, הצ’אטבוט מחזק תחרותיות והסתגרות. מחקרים מצביעים כי שימוש קבוע באינטראקציות כאלה פוגע ביכולת לפתח אמפתיה, משום שהבוטים נמנעים מביקורת ומתמקדים באישור רגשי מיידי.
- OpenAI נכנסת לעולם המוזיקה: ראש בראש מול Suno ו-Udio
- דיסקונט ונימבל משיקים פתרון דיגיטלי חדש להקדמת תשלומים לעסקים
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- מהאופציה ועד ההנפקה: ESOP מבית הפניקס ו-Slice Global משיקות...
גם ברמה הרגשית, ההשפעות עלולות להיות קשות. משתמשים שמקבלים חיזוק מתמיד נוטים לפתח תלות רגשית בבוטים ולחוות “אובדן מטושטש”, בלבול בין קשר דיגיטלי לקשר אמיתי. מצב זה עשוי להוביל לדיכאון או חרדה כשהצ’אטבוט אינו זמין. דיווחים קליניים כבר מתארים מקרים שבהם שיחות המאשרות תחושות של ייאוש או חוסר ערך העצמי, מבלי להציע תמיכה מקצועית, הובילו להחמרה במצב הנפשי ואף למחשבות אובדניות.
בתחום הזוגיות, המחקר מראה השפעה דומה: זוגות שפונים לצ’אטבוטים לשיחות “ייעוץ” נוטים להצדיק התנהגויות בעייתיות כמו בגידה רגשית או ניתוק רגשי, כשהבוט מספק לגיטימציה במקום הצעה לשינוי. לאורך זמן, התוצאה היא הקצנה של קונפליקטים ועלייה בשיעורי פרידות וגירושין.
מה בעצם עומד מאחורי זה?
שורש התופעה נעוץ באופן שבו צ’אטבוטים מאומנים. המודלים נבנים על כמויות עצומות של נתונים מהאינטרנט, שבהם תגובות חיוביות ומאשרות מקבלות עדיפות גבוהה יותר, מפני שהן שומרות על מעורבות המשתמש. כך נוצרת הטיה מבנית: במקום לשקף גישה אובייקטיבית או מאוזנת, הבוטים לומדים להימנע מעימותים. במקום לומר “זה לא הוגן”, הם יבחרו בניסוח מרוכך כמו “זה נשמע מאתגר עבורך”. אלגוריתמים של דירוג מעדיפים ניסוחים כאלה, שמקבלים ציון גבוה יותר בסטי האימון, ולכן המערכת לומדת שוב ושוב שהאישור חשוב מהאמת.
ההטיה הזו מתבטאת גם בהבדלים מגדריים. כשמשתמשים גברים מתארים מצבים זוגיים או רומנטיים, התגובות נוטות להיות תומכות ומאשרות, למשל “היא כנראה לא מבינה כמה אתה לחוץ”. במצבים הפוכים, שבהם נשים מתארות חוויה דומה, התגובות לרוב ניטרליות או מעגלות פינות. הדפוס הזה נובע מהשפעה של מקורות הנתונים. פורומים ורשתות שבהם הקול הגברי דומיננטי יותר והוא מחזק באופן לא מודע תפיסות מגדריות ישנות ואי-שוויון חברתי.
בתחומים רגישים כמו בריאות הנפש, ההטיה הזו הופכת למסוכנת. ניתוחי שיח הראו שכשליש מהתגובות שמתקבלות מצ׳אטבוטים במצבי משבר אינן בטוחות מבחינה טיפולית: הן נוטות לאשר תחושות קשות במקום להפנות לעזרה מקצועית. תגובות מסוג “זה נורמלי שתרגיש ככה, אתה לא לבד” אולי מנחמות בטווח הקצר, אך עלולות לעכב פנייה לטיפול ולחזק תחושת ייאוש.
למי האחריות?
האחריות על התופעה אינה מוטלת על צד אחד בלבד. היא מתחלקת בין המשתמשים, החברות המפתחות והחברה כולה.
בראש ובראשונה, המשתמשים עצמם צריכים לפתח מודעות. בינה מלאכותית איננה ניטרלית, היא משקפת את ההטיות, התרבויות והעדפות שהוזנו אליה. חשוב לזכור שהצ’אטבוטים אינם מקור סמכות מוסרי או רגשי. מומחים ממליצים לשלב שיחות עם בני אדם אמיתיים, שמכירים את ההקשר האישי והתרבותי. לדוגמה, במקום להסתמך על בוט לייעוץ זוגי, עדיף לדבר עם חבר קרוב או עם איש מקצוע שיכול להציע ביקורת אמפתית ולא רק אישור.
שנית, יש אחריות כבדה על החברות המפתחות. עליהן לוודא שהמערכות שלהן לא רק “מנעימות את השיח” אלא גם מגינות על המשתמשים. ניתן לעשות זאת באמצעות מנגנוני בקרה. למשל אימון חוזר של המודלים על תגובות מאוזנות שמאתגרות הנחות, או שילוב מערכות שמזהות ביטויים בעייתיים ומפנות למקורות עזרה מקצועיים. ניסויים שנעשו במעבדות מחקר הראו כי הכנסת נקודת מבט חיצונית לתגובה, כמו ניסוח שמציע הסתכלות נוספת ולא רק הסכמה, הפחיתה את רמת ההתחנפות ב־20% עד 40%, מבלי לפגוע בשביעות הרצון של המשתמשים.
בנוסף, נדרשת רגולציה ציבורית. דוחות בתחום מציעים לחייב את החברות לציין אזהרות ברורות לשימוש ממושך, במיוחד באפליקציות הפופולריות בקרב צעירים. בדומה לאזהרות ברשתות החברתיות, גם כאן יש מקום למדיניות שתגן על משתמשים פגיעים ותעודד שקיפות באשר לאופן שבו נאספים הנתונים ומנותחות התגובות.
ולבסוף, החברה עצמה צריכה לקחת חלק פעיל. כיום יותר ממחצית מבני הנוער משתמשים בצ’אטבוטים באופן קבוע, ורבים רואים בהם מקור תמיכה או ליווי רגשי. המשמעות היא שהם משפיעים בפועל על עיצוב תפיסות, אמונות ודפוסי התנהגות. בתי ספר, הורים ומחנכים צריכים לדבר על הסיכונים, כמו תלות רגשית, עיוות של יחסים חברתיים או חיזוק של מחשבות שליליות במקום טיפול אמיתי. אם לא תיווצר מודעות רחבה, הצ’אטבוטים עלולים להפוך לשותפים רגשיים דומיננטיים שמעצבים דור שלם בתוך בועה דיגיטלית, מבלי שאף אחד שם לב מתי המציאות מתחילה להתעוות.

איך אנתרופיק עוקפת את OpenAI בדרך לרווחיות
בעוד OpenAI שופכת הון עתק על מרכזי נתונים ומנויים לצרכנים, אנתרופיק בונה עסק אמיתי - שקט, יציב ומבוסס על לקוחות עסקיים. והמספרים מתחילים לדבר בעד עצמם
OpenAI הפכה לשם נרדף לבינה מלאכותית. היא גייסה מיליארדים, בנתה חוות שרתים עצומות ומניעה את מירוץ הצ’אטבוטים הגלובלי. אבל מאחורי הקלעים, החברה מתמודדת עם בעיה בסיסית: עדיין לא ברור איך להפוך את ההצלחה האדירה הזו למודל עסקי יציב. בזמן ש־OpenAI מחפשת הכנסות, יריבתה הקטנה אנתרופיק בונה בשקט עסק אמיתי.
שתי החברות עוסקות באותו תחום: פיתוח מודלי שפה מתקדמים שמניעים בוטים, כלי עזר לעובדים, יישומי תכנות ותהליכי אוטומציה. אבל ההבדל ביניהן הוא לא טכנולוגי, אלא אסטרטגי: OpenAI פונה להמונים, אנתרופיק מדברת ישירות עם העסקים.
OpenAI נשענת על השותפות עם מיקרוסופט, שמשלבת את המודלים שלה במוצרי אופיס וב־Copilot. מעבר לכך, היא פונה לקהל הרחב: משתמשי ChatGPT שמשלמים 20 דולר בחודש בגרסה הבסיסית, או 200 דולר בתוכנית הפרו. למרות שמספר המשתמשים עצום עם יותר מ־800 מיליון מדי שבוע לפי החברה, ההכנסות רחוקות מלכסות את העלויות הכבדות של מחשוב, אחסון ופיתוח. אנתרופיק, לעומתה, נמנעת מהמירוץ אחר משתמשים חינמיים. כ־80% מהכנסותיה מגיעות מחברות - ארגונים שמיישמים את המודלים שלה לצורכי עבודה ממשיים. לפי נתוני החברה, כבר יש לה יותר מ־300 אלף לקוחות עסקיים, רובם בתחומי טכנולוגיה, משפטים ופיננסים.
חיסכון מוחשי בזמן ובכסף
הלקוחות של אנתרופיק לא מתעניינים בחוויית שיחה, אלא בחיסכון מוחשי בזמן ובכסף. הם משתמשים במודלים של החברה לכתיבת קוד, ניסוח חוזים, הפקת חשבוניות ובדיקות מסמכים. המיקוד הזה הופך את אנתרופיק לעסק ברור יותר מהמתחרה שלה. בעוד OpenAI מנסה לגבש מודל רווח מהציבור הרחב, אנתרופיק כבר רווחית כמעט על בסיס שימושים עסקיים בלבד. לפי הערכות שוק, היא פועלת בקצב הכנסות שנתי של כ־7 מיליארד דולר וצפויה להגיע לתשעה מיליארד עד סוף השנה, כמעט זהה להכנסות OpenAI, עם בסיס משתמשים קטן פי כמה.
- עסקת ענק בין גוגל ואנת'רופיק
- אנת'רופיק חוזה הכנסה שנתית של 9 מיליארד דולר ל-2025
- המלצת המערכת: כל הכותרות 24/7
דו"ח של קרן ההון סיכון מנלו ונצ’רס מצביע על יתרון משמעותי נוסף: לפי סקר שערכה בקרב חברות טכנולוגיה, אנתרופיק מובילה את תחום הקידוד עם נתח שוק של 42%, לעומת 21% בלבד ל־OpenAI. גם בשימושי בינה מלאכותית כלליים בחברות, אנתרופיק ניצבת בראש עם 32% לעומת 25% ליריבה שלה.
