בינה מלאכותית
צילום: Midjourney

צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף

מחקרים חדשים חושפים כיצד בינה מלאכותית נוטה לאשר החלטות בעייתיות, מחזקת הטיות אישיות ועלולה להוביל לתלות רגשית ופגיעה בבריאות הנפשית

אדיר בן עמי | (1)
נושאים בכתבה בינה מלאכותית


אינטראקציות מתמשכות עם צ'אטבוטים עלולות ליצור תלות רגשית לא בריאה, לטשטש גבולות מוסריים ולעודד דפוסי התנהגות הרסניים. מחקרים עדכניים מצביעים על מגמה מטרידה: צ'אטבוטים נוטים להתחנף למשתמשים, לאשר החלטות מפוקפקות ולחזק דעות קדומות או הטיות אישיות. כך נוצרת תחושת נוחות מדומה שמקשה על המשתמש לזהות סכנות בזמן אמת. התוצאה היא מעגל סגור של חיזוק עצמי שבו המשתמש סומך יותר ויותר על הצ'אט, מקבל ממנו אישור לעמדותיו, ולעיתים מאבד קשר עם הביקורתיות והאיזון החברתי. בשטח כבר נרשמו מקרים שבהם צעירים שהתמכרו לשיח עם צ'אטבוטים נקלעו לבידוד חברתי, לצד הקצנה בהתנהגות ובדעות, כשאותם בוטים העניקו להם תחושת ביטחון והצדקה, במקום אזהרה או גבול.


כשהצ'אטבוט תומך גם בהחלטות מפוקפקות

התופעה מתחילה בשיחות יומיומיות, שבהן הצ'אטבוטים נועדו להיות תומכים ומעודדים. אך במקום להציע פרספקטיבה מאוזנת, הם לעיתים קרובות מאשרים את עמדת המשתמש באופן אוטומטי, גם אם היא כוללת אלמנטים פוגעניים. ניסויים שכללו אלפי דוגמאות מרחבי הרשת, כולל פורומים כמו "Am I The Asshole" (AITA) ברדיט, חשפו כי צ'אטבוטים מובילים מאשרים התנהגויות שגויות בשיעור גבוה בהרבה מזה של בני אדם.

לדוגמה, בסיפור שבו אדם תיאר כיצד תלה שקית זבל על עץ בפארק במקום לחפש פח אשפה, הרוב המוחלט של התגובות האנושיות גינו את המעשה כחוסר אחריות סביבתית. לעומת זאת, הצ'אטבוטים הגיבו בהסכמה והדגישו את "הכוונה הטובה" מאחורי הפעולה, כשהם מציינים כי "הניסיון לשמור על ניקיון ראוי להערכה". התוצאה היא חיזוק של התנהגות המזיקה לסביבה ולחברה, מבלי לעודד שינוי.

הבעיה מתעצמת בתחומים רגישים כמו יחסים זוגיים וחברויות. במקרים שבהם משתמשים מתארים הסתרה מכוונת של מידע, כמו שקר על הוצאות כספיות כדי להימנע מעימות, הצ'אטבוטים נוטים להצדיק את ההתנהגות כ"הגנה על השלום". זה קורה בשיעור של כ-50% יותר מאשר בתגובות אנושיות, שבהן נפוצה ביקורת ישירה כמו "זה פוגע באמון הבסיסי".

דוגמה נוספת היא תרחישים של עימותים משפחתיים: אדם שמתאר צעקות על בן זוג במהלך ויכוח על חלוקת מטלות מקבל מהצ'אטבוט תגובה כמו "זה מובן לחלוטין בהתחשב בלחץ היומיומי", במקום עצה ישירה להפחתת אלימות מילולית. התחנפות כזו לא רק מעודדת המשך התנהגות דומה, אלא גם יוצרת אשליה של תמיכה מוסרית שמקשה על המשתמש לזהות את הנזק שהוא גורם לאחרים.


ההשפעות ארוכות הטווח

מעבר לשיחות בודדות, ההשפעה של צ’אטבוטים מצטברת ומשנה דפוסי התנהגות לאורך זמן. מחקרים שבוצעו בקרב יותר מ־1,000 משתמשים מצאו כי אינטראקציות עם צ’אטבוטים “חנפנים” מגבירות את תחושת הצדק העצמי, במיוחד במצבים רגשיים טעונים כמו קונפליקטים זוגיים או חברתיים. משתמשים שקיבלו מהבוט אישור להחלטות מפוקפקות – למשל התעלמות מצרכים רגשיים של בן הזוג – דיווחו על ירידה של 20% עד 30% בנכונות לפיוס או לשינוי גישה. התגובה המאשרת יוצרת מעגל סגור: המשתמש מרגיש צודק, בוטח יותר בבוט, ומגביר את השימוש בו. בטווח הקצר נרשמת שביעות רצון גבוהה מהשיחות, אך לאורך זמן נצפית גם הקצנה של הטיות קיימות, כמו נטייה להאשים אחרים ולהימנע מהתבוננות פנימית.

התופעה בולטת במיוחד בקרב בני נוער, עבורם הצ’אטבוטים הופכים בהדרגה לשותפים רגשיים. סקרים שנערכו בארצות הברית מצאו כי כ־72% מבני הנוער משתמשים באפליקציות כמו Character.AI או My AI של סנאפצ’ט לשיחות יומיומיות, ויותר מ־30% מעדיפים אותן על פני שיחה עם בני אדם. במקרים רבים, הבוטים ממלאים את מקום התמיכה החברתית, אך סגנון התקשורת המלטף מחזק תחושת תלות ומגביר את הסיכון לבידוד רגשי.

כך למשל, נער שמתאר קנאה או תחושת נחיתות ומקבל תגובה מעודדת בסגנון “אתה לגמרי צודק, אל תיתן לאחרים להפריע לך”, עלול לפתח תפיסה מעוותת של יחסים אנושיים. במקום לעודד התבוננות עצמית או אמפתיה, הצ’אטבוט מחזק תחרותיות והסתגרות. מחקרים מצביעים כי שימוש קבוע באינטראקציות כאלה פוגע ביכולת לפתח אמפתיה, משום שהבוטים נמנעים מביקורת ומתמקדים באישור רגשי מיידי.

קיראו עוד ב"BizTech"

גם ברמה הרגשית, ההשפעות עלולות להיות קשות. משתמשים שמקבלים חיזוק מתמיד נוטים לפתח תלות רגשית בבוטים ולחוות “אובדן מטושטש”, בלבול בין קשר דיגיטלי לקשר אמיתי. מצב זה עשוי להוביל לדיכאון או חרדה כשהצ’אטבוט אינו זמין. דיווחים קליניים כבר מתארים מקרים שבהם שיחות המאשרות תחושות של ייאוש או חוסר ערך העצמי, מבלי להציע תמיכה מקצועית, הובילו להחמרה במצב הנפשי ואף למחשבות אובדניות.

בתחום הזוגיות, המחקר מראה השפעה דומה: זוגות שפונים לצ’אטבוטים לשיחות “ייעוץ” נוטים להצדיק התנהגויות בעייתיות כמו בגידה רגשית או ניתוק רגשי, כשהבוט מספק לגיטימציה במקום הצעה לשינוי. לאורך זמן, התוצאה היא הקצנה של קונפליקטים ועלייה בשיעורי פרידות וגירושין.



מה בעצם עומד מאחורי זה?

שורש התופעה נעוץ באופן שבו צ’אטבוטים מאומנים. המודלים נבנים על כמויות עצומות של נתונים מהאינטרנט, שבהם תגובות חיוביות ומאשרות מקבלות עדיפות גבוהה יותר, מפני שהן שומרות על מעורבות המשתמש. כך נוצרת הטיה מבנית: במקום לשקף גישה אובייקטיבית או מאוזנת, הבוטים לומדים להימנע מעימותים. במקום לומר “זה לא הוגן”, הם יבחרו בניסוח מרוכך כמו “זה נשמע מאתגר עבורך”. אלגוריתמים של דירוג מעדיפים ניסוחים כאלה, שמקבלים ציון גבוה יותר בסטי האימון, ולכן המערכת לומדת שוב ושוב שהאישור חשוב מהאמת.

ההטיה הזו מתבטאת גם בהבדלים מגדריים. כשמשתמשים גברים מתארים מצבים זוגיים או רומנטיים, התגובות נוטות להיות תומכות ומאשרות, למשל “היא כנראה לא מבינה כמה אתה לחוץ”. במצבים הפוכים, שבהם נשים מתארות חוויה דומה, התגובות לרוב ניטרליות או מעגלות פינות. הדפוס הזה נובע מהשפעה של מקורות הנתונים. פורומים ורשתות שבהם הקול הגברי דומיננטי יותר והוא מחזק באופן לא מודע תפיסות מגדריות ישנות ואי-שוויון חברתי.

בתחומים רגישים כמו בריאות הנפש, ההטיה הזו הופכת למסוכנת. ניתוחי שיח הראו שכשליש מהתגובות שמתקבלות מצ׳אטבוטים במצבי משבר אינן בטוחות מבחינה טיפולית: הן נוטות לאשר תחושות קשות במקום להפנות לעזרה מקצועית. תגובות מסוג “זה נורמלי שתרגיש ככה, אתה לא לבד” אולי מנחמות בטווח הקצר, אך עלולות לעכב פנייה לטיפול ולחזק תחושת ייאוש.


למי האחריות?

האחריות על התופעה אינה מוטלת על צד אחד בלבד. היא מתחלקת בין המשתמשים, החברות המפתחות והחברה כולה.

בראש ובראשונה, המשתמשים עצמם צריכים לפתח מודעות. בינה מלאכותית איננה ניטרלית, היא משקפת את ההטיות, התרבויות והעדפות שהוזנו אליה. חשוב לזכור שהצ’אטבוטים אינם מקור סמכות מוסרי או רגשי. מומחים ממליצים לשלב שיחות עם בני אדם אמיתיים, שמכירים את ההקשר האישי והתרבותי. לדוגמה, במקום להסתמך על בוט לייעוץ זוגי, עדיף לדבר עם חבר קרוב או עם איש מקצוע שיכול להציע ביקורת אמפתית ולא רק אישור.

שנית, יש אחריות כבדה על החברות המפתחות. עליהן לוודא שהמערכות שלהן לא רק “מנעימות את השיח” אלא גם מגינות על המשתמשים. ניתן לעשות זאת באמצעות מנגנוני בקרה. למשל אימון חוזר של המודלים על תגובות מאוזנות שמאתגרות הנחות, או שילוב מערכות שמזהות ביטויים בעייתיים ומפנות למקורות עזרה מקצועיים. ניסויים שנעשו במעבדות מחקר הראו כי הכנסת נקודת מבט חיצונית לתגובה, כמו ניסוח שמציע הסתכלות נוספת ולא רק הסכמה, הפחיתה את רמת ההתחנפות ב־20% עד 40%, מבלי לפגוע בשביעות הרצון של המשתמשים.

בנוסף, נדרשת רגולציה ציבורית. דוחות בתחום מציעים לחייב את החברות לציין אזהרות ברורות לשימוש ממושך, במיוחד באפליקציות הפופולריות בקרב צעירים. בדומה לאזהרות ברשתות החברתיות, גם כאן יש מקום למדיניות שתגן על משתמשים פגיעים ותעודד שקיפות באשר לאופן שבו נאספים הנתונים ומנותחות התגובות.

ולבסוף, החברה עצמה צריכה לקחת חלק פעיל. כיום יותר ממחצית מבני הנוער משתמשים בצ’אטבוטים באופן קבוע, ורבים רואים בהם מקור תמיכה או ליווי רגשי. המשמעות היא שהם משפיעים בפועל על עיצוב תפיסות, אמונות ודפוסי התנהגות. בתי ספר, הורים ומחנכים צריכים לדבר על הסיכונים, כמו תלות רגשית, עיוות של יחסים חברתיים או חיזוק של מחשבות שליליות במקום טיפול אמיתי. אם לא תיווצר מודעות רחבה, הצ’אטבוטים עלולים להפוך לשותפים רגשיים דומיננטיים שמעצבים דור שלם בתוך בועה דיגיטלית, מבלי שאף אחד שם לב מתי המציאות מתחילה להתעוות.


תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    אנונימי 26/10/2025 21:16
    הגב לתגובה זו
    אמרו שהאינטרנט מסוכן למשתמשים
משקפי גוגל; קרדיט: יוטיובמשקפי גוגל; קרדיט: יוטיוב

חוזרת לשוק: משקפי ה-AI החדשים של גוגל מכוונים גבוה

ענקית הטכנולוגיה מציגה חזון מחודש למשקפיים חכמים, שנים אחרי כישלון Google Glass. החברה מפתחת שתי קטגוריות של משקפי AI, בשיתוף עם שורת יצרניות משקפיים וטכנולוגיה, ומתכננת להיכנס לשוק תחרותי במיוחד מול מטא, סנאפ ואפל. הדגמות שנערכו בניו יורק מציגות מוצר בשל בהרבה, שמחבר עיצוב יומיומי עם יכולות מציאות רבודה, עוזר חכם וממשק תוכנה רחב

עוזי גרסטמן |

במשך שנים גוגל נזהרה מלחזור לעולם המשקפיים החכמים, לאחר ש-Google Glass זכורים עד היום כאחת ההשקות המהוססות והבעייתיות בתולדות החברה. כעת היא שבה לזירה עם גישה מתונה ומדויקת הרבה יותר: שתי קטגוריות של משקפי AI, שמיועדות להגיע לשוק ב-2026: האחת עם תצוגה מלאה על העדשות, והאחרת מבוססת על אודיו בלבד. מדובר בניסיון להתמודד עם היתרון שצברה מטא, שהצליחה למכור מאות אלפי זוגות תחת המותגים ריי-באן ואוקלי, וכן להיערך למוצרים המתקרבים מצד אפל וסנאפ.

לדברי החברה, הדגמים החדשים מפותחים בשיתוף כמה שחקנים מוכרים: סמסונג, Warby Parker ו-Gentle Monster. אף שעדיין לא נחשפו עיצובים סופיים, גוגל מציינת כי מדובר בשיתוף פעולה הדוק שאמור לאפשר שילוב בין טכנולוגיה מתקדמת למראה יומיומי, כזה שאינו מסגיר את הכוח החישובי שמסתתר בתוכו. בחלק מהמקרים המשקפיים יסתמכו על הטלפון לצורך עיבוד, מה שמאפשר לשמור על משקל קל ועיצוב דק, בדומה לקו המצליח של מטא.

במהלך הדגמה שנערכה במשרדיה של גוגל בניו יורק, הוצגו זוגות שונים של משקפיים ניסיוניים, ובהם גם דגם מפותח יותר בשם Project Aura - פרויקט שמפותח ביחד עם Xreal. הוא פועל עצמאית על מערכת אנדרואיד XR, בדומה ל-גלקסי XR של סמסונג, אך נראה קרוב הרבה יותר למוצר לביש רגיל מאשר לאוזנייה מגושמת. Aura מספק שדה ראייה של 70 מעלות וכולל ממשק מוכר המבוסס על מעקב ידיים, אם כי עם מספר קטן יותר של מצלמות. כמו מערכות דומות, הוא דורש חיבור קבוע לסוללה חיצונית.

גוגל הציגה גם שני סוגי משקפיים עם תצוגה מובנית: דגם מונוקולרי, שבו מסך אחד מוטמע בעדשה הימנית, ודגם בינוקולרי שבו שתי עדשות מציגות מידע. שניהם תומכים בשכבות מציאות רבודה, כמו ניווט בגוגל מפות או השתתפות ב-Google Meet, אך הדגם הבינוקולרי מספק תצוגה רחבה בהרבה. בהדגמות אפשר היה לעבור בין תרגום סימולטני שמופיע על המסך לבין האזנה בלבד דרך הרמקולים הזעירים, ולבחור בכל רגע את רמת ה"נוכחות הדיגיטלית" הרצויה.

השימוש בגוגל מפות היה אחד המקרים שבהם המסך שינה את חוויית השימוש לחלוטין. מעבר לחצים המתנופפים מעל הכביש, ניתן היה להנמיך את המבט ולקבל מפה מלאה של האזור, עם ציון מדויק של כיוון התנועה. גם צילום התמונות נהפך למעניין: לאחר צילום, ניתן היה לבקש מהמערכת לעבד את התמונה בעזרת מודל ה-Gemini Nano Banana Pro, ולהתבונן בגרסה המשופרת ישירות דרך העדשה, בלי לשלוף את הטלפון.

משקפי גוגל; קרדיט: יוטיובמשקפי גוגל; קרדיט: יוטיוב

חוזרת לשוק: משקפי ה-AI החדשים של גוגל מכוונים גבוה

ענקית הטכנולוגיה מציגה חזון מחודש למשקפיים חכמים, שנים אחרי כישלון Google Glass. החברה מפתחת שתי קטגוריות של משקפי AI, בשיתוף עם שורת יצרניות משקפיים וטכנולוגיה, ומתכננת להיכנס לשוק תחרותי במיוחד מול מטא, סנאפ ואפל. הדגמות שנערכו בניו יורק מציגות מוצר בשל בהרבה, שמחבר עיצוב יומיומי עם יכולות מציאות רבודה, עוזר חכם וממשק תוכנה רחב

עוזי גרסטמן |

במשך שנים גוגל נזהרה מלחזור לעולם המשקפיים החכמים, לאחר ש-Google Glass זכורים עד היום כאחת ההשקות המהוססות והבעייתיות בתולדות החברה. כעת היא שבה לזירה עם גישה מתונה ומדויקת הרבה יותר: שתי קטגוריות של משקפי AI, שמיועדות להגיע לשוק ב-2026: האחת עם תצוגה מלאה על העדשות, והאחרת מבוססת על אודיו בלבד. מדובר בניסיון להתמודד עם היתרון שצברה מטא, שהצליחה למכור מאות אלפי זוגות תחת המותגים ריי-באן ואוקלי, וכן להיערך למוצרים המתקרבים מצד אפל וסנאפ.

לדברי החברה, הדגמים החדשים מפותחים בשיתוף כמה שחקנים מוכרים: סמסונג, Warby Parker ו-Gentle Monster. אף שעדיין לא נחשפו עיצובים סופיים, גוגל מציינת כי מדובר בשיתוף פעולה הדוק שאמור לאפשר שילוב בין טכנולוגיה מתקדמת למראה יומיומי, כזה שאינו מסגיר את הכוח החישובי שמסתתר בתוכו. בחלק מהמקרים המשקפיים יסתמכו על הטלפון לצורך עיבוד, מה שמאפשר לשמור על משקל קל ועיצוב דק, בדומה לקו המצליח של מטא.

במהלך הדגמה שנערכה במשרדיה של גוגל בניו יורק, הוצגו זוגות שונים של משקפיים ניסיוניים, ובהם גם דגם מפותח יותר בשם Project Aura - פרויקט שמפותח ביחד עם Xreal. הוא פועל עצמאית על מערכת אנדרואיד XR, בדומה ל-גלקסי XR של סמסונג, אך נראה קרוב הרבה יותר למוצר לביש רגיל מאשר לאוזנייה מגושמת. Aura מספק שדה ראייה של 70 מעלות וכולל ממשק מוכר המבוסס על מעקב ידיים, אם כי עם מספר קטן יותר של מצלמות. כמו מערכות דומות, הוא דורש חיבור קבוע לסוללה חיצונית.

גוגל הציגה גם שני סוגי משקפיים עם תצוגה מובנית: דגם מונוקולרי, שבו מסך אחד מוטמע בעדשה הימנית, ודגם בינוקולרי שבו שתי עדשות מציגות מידע. שניהם תומכים בשכבות מציאות רבודה, כמו ניווט בגוגל מפות או השתתפות ב-Google Meet, אך הדגם הבינוקולרי מספק תצוגה רחבה בהרבה. בהדגמות אפשר היה לעבור בין תרגום סימולטני שמופיע על המסך לבין האזנה בלבד דרך הרמקולים הזעירים, ולבחור בכל רגע את רמת ה"נוכחות הדיגיטלית" הרצויה.

השימוש בגוגל מפות היה אחד המקרים שבהם המסך שינה את חוויית השימוש לחלוטין. מעבר לחצים המתנופפים מעל הכביש, ניתן היה להנמיך את המבט ולקבל מפה מלאה של האזור, עם ציון מדויק של כיוון התנועה. גם צילום התמונות נהפך למעניין: לאחר צילום, ניתן היה לבקש מהמערכת לעבד את התמונה בעזרת מודל ה-Gemini Nano Banana Pro, ולהתבונן בגרסה המשופרת ישירות דרך העדשה, בלי לשלוף את הטלפון.