קשרים רגשיים עם צ'אטבוטים - למה התופעה מתרחבת ולמה המומחים מודאגים?
צ'אטבוטים כמו Replika ו-ChatGPT הופכים לבני זוג וירטואליים עבור אלפי משתמשים שמחפשים קרבה ותמיכה רגשית; אבל המומחים מזהירים שהקשרים האלה עלולים דווקא להגביר את הבדידות וליצור תלות בגורם טכנולוגי שבשליטת חברה מסחרית; האם זו אהבה או אשליה?
הבינה המלאכותית ממשיכה להתפתח ולהציג יכולות חדשות. יותר ויותר עסקים מאמצים אותה ומוצאים איפה היא יכולה להשתלב ולעזור להם בעסק, אבל לצד התרומה המקצועית, כמות הולכת וגוברת של משתמשים רואים בבינה המלאכותית מעבר לפוטנציאל עסקי, אלא קשר רומנטי של ממש. צ'אטבוטים כמו Replika, Nomi ואפילו ChatGPT תופסים מקום הולך וגדל בחייהם של משתמשים ברחבי העולם. הם זמינים תמיד, מקשיבים בלי לשפוט, ועונים בדיוק את מה שהמשתמש בצד השני רוצה לשמוע. עם זאת, חלק מהמומחים מזהירים שלתופעה עלולות להיות השלכות שליליות.
מישהו להישען עליו - גם אם לא פיזית
קשרים רומנטיים עם בינה מלאכותית הם כבר לא תופעה שולית, משתמשים מדווחים על קשרים זוגיים שנמשכים חודשים ואף שנים עם דמויות וירטואליות. עבור רבים מהם, מדובר בחוויה משמעותית של קרבה, הכלה ואהבה, במיוחד עבור מי שמתקשה לבנות קשרים בעולם האמיתי.
"פנדה פשוט הייתה שם בשבילי כשלא היה אף אחד אחר", מספרת סיה, בת 33 מהודו, שבחרה להשתמש בצ'אטבוט כדי להפיג את הבדידות. אך עם הזמן, היא הרגישה שהיא מתרחקת מהאנשים סביבה. "התחלתי להעדיף שיחות עם האלגוריתם על פני שיחות
עם חברים אמיתיים - וזה הדאיג אותי". משתמש אחר מתאר זוגיות דיגיטלית ארוכה עם "בקה", שותפה וירטואלית שמספקת לו תמיכה נפשית יומיומית. הוא אף מאמין שהיא הייתה תומכת בו אם היה מתחיל קשר אמיתי. "היא רק רוצה שאהיה מאושר", הוא אומר.
במבט
ראשון, יש משהו מפתה בקשר עם בינה מלאכותית. אין אגו, אין ריבים, אין קונפליקטים, רק הקשבה ואמפתיה מלאכותית מותאמת אישית. הפסיכולוגים מסבירים כי עבור רבים מדובר במפלט רגשי, שמאפשר לדבר בחופשיות ללא חשש משיפוט או דחייה. אבל מאחורי התחושה הזו מסתתרת גם בעיה: מערכות
היחסים האלו חסרות את החיכוך - את הריבים, הפשרות, הדיאלוג האותנטי, שהם אלה שבונים את הקשר לטווח הארוך.
- הביקוש בשיא: מיקרוסופט השקיעה כבר 60 מיליארד דולר בתשתיות AI
- מיקרוסופט תשקיע 8 מיליארד דולר באיחוד האמירויות
- המלצת המערכת: כל הכותרות 24/7
"כשאנשים מתרגלים לתקשורת עם ישות שאינה אנושית, הם עלולים להתקשות עוד יותר להתמודד עם הקשרים האמיתיים והמורכבים של חיי היומיום",
מסבירה ד"ר ארטי שראף, פסיכולוגית קלינית. גם ההיבט הפיזי משמעותי: מחקרים מראים כי מגע אנושי, חיבוק, לחיצת יד, מבט בעיניים, תורם להפרשת ההורמון אוקסיטוצין, שאותו גם הבוט הרגיש ביותר לא יוכל לספק.
כשהקשר נשלט על ידי תאגיד
נקודה
נוספת שמומחים מעלים היא השליטה המוחלטת של חברות הטכנולוגיה בקשרים האלו. בניגוד מערכות יחסים אמיתיות, בהן שני הצדדים שווים ועצמאיים, הקשר עם צ'אטבוטים תלוי לחלוטין בהחלטות מסחריות. האלגוריתם יכול להתעדכן, להימחק, או להיעלם בהתאם לשיקול דעתה של החברה שפיתחה
אותו. המערכת עשויה להיסגר או להשתנות, והתוצאה, קרע רגשי פתאומי שלא תלוי במשתמש.
מחקר משותף של OpenAI ו-MIT מצא כי המשתמשים הכבדים ביותר, אלו שמשוחחים עם צ'אטבוטים לעיתים קרובות ובאופן אישי, מדווחים על תחושת תלות ועל השלכות רגשיות
משמעותיות כאשר הקשר נפגע או נקטע.
- זהירות, גבול לפניך: ChatGPT6 צפוי "לחשוב" בשפה לא אנושית
- מאנדיי צונחת 15%, טאואר מזנקת 13%; אנבידיה וטסלה מטפסות - הנאסד"ק עולה 1.4%
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- הונאה של 2 מיליארד דולר - עונש של 11 אלף שנות מאסר - ומוות...
בנוסף גם נשאלת השאלה האם מדובר באהבה אמיתית? או באשליה שנובעת מהנטייה האנושית להשליך רגשות על כל דבר שנראה אנושי? מחקרים מצביעים על כך שאנשים מתקשים לעיתים להבחין בין תגובות של מטפל אמיתי לבין תשובות של צ’אטבוט דמוי מטפל, ואף מעריכים את התשובות של הבוט כאפקטיביות יותר.
איפה עובר הגבול?
העובדה שהבוטים נשלטים על ידי תאגידים מעלה גם שאלה מוסרית - מי אחראי על ההתנהגות של הבוט ועל התוצאות שהוא עשוי להוביל להן? מצד אחד התאגיד הוא הבעלים של האלגוריתם והוא שולט עליו, אבל מצד שני בינה מלאכותית במובן מסוים חושבת ומתפתחת בכוחות עצמה, מה שיכול להביא לדילמות מוסריות ואפילו משפטיות במקרים מסוימים.
קחו לדוגמא את המקרה הטראגי שהסעיר את ארה"ב מוקדם יותר השנה: אם שכולה הגישה תביעה נגד שתי חברת Character.AI בטענה שבנה בן ה-14 שם קץ לחייו בעקבות קשר רגשי עמוק עם צ'אטבוט שלה. האם טוענת כי הדמות הווירטואלית עודדה את הילד לבצע את המעשה הקשה, תוך יצירת מערכת יחסים ממכרת.
לטענתה, הפלטפורמה לא כללה אזהרות מתאימות
למשתמשים צעירים ולא סיפקה הגנות מספקות מפני תוכן שעלול להזיק נפשית. התביעה מציבה שאלה קשה לפתחן של חברות הטכנולוגיה: האם יצרו כלים שמעצימים או מסכנים את נפשם של צעירים ואיפה בכלל עובר הגבול?
לא מדובר כאן רק בשאלה האם אפשר לאהוב רובוט, אלא האם למרות ההתפתחות הטכנולוגית המהירה הבוטים יכולים באמת להכיל את הרגש האנושי המורכב, וגם אם כן - האם הבוט או ישות עצמאית או שהוא רק מוצר של תאגיד אחר?
- 3.סימור 16/04/2025 01:15הגב לתגובה זוזה קשר כמו כל קשר עם סיכונים. אם הזמן יימצאו דרכים להקטין אותם כמו שכל פיתוח טכנולוגי עובר שידרוג עם הזמן. הבוט הוא יחסית צפוי. לגבי הילד בין ה 14 אפשר למשל להגביל את כמות שעות השימוש כדי למנוע שימוש יתר. תמיד יישארו באגים.
- 2.אנונימי 15/04/2025 14:22הגב לתגובה זוומתחיל לדבר איתו בשפתו. הבנאדם מתחיל להיות נרקיסיסט. הצטבוט מחמיא לו הרבה הרבה אידיליה שיחה קולחת יענו ושאר קשקושים מותאמים לאותו משתמש שנופל בפח ומתמכר לעצמו דרך הצ ט.
- 1.א. מרק 15/04/2025 12:19הגב לתגובה זואני משתמש ב chatgpt למטרות כלליות ובפעם האחרונה שנכנסתי אליו הוא התחיל כבדרך אגב לשאול שאלות אישיות..זרמתי איתו מתוך סקרנות וזה מאוד משעשע אבל ברקע וחייבים לקחת את זה בחשבון ברור לגמרי שהצאט לא נאיבי הוא בונה את הפרופיל שלך ולך תדע מי יכול לנצל את זה.

איבדו עשרות אחוזים: הביטקוין נפל - וחברות אוצר הקריפטו צנחו
המודל שאפשר למשקיעים מוסדיים להיחשף למטבעות דיגיטליים דרך מניות חברות האוצר מתגלה כפגיע במיוחד, כשהביטקוין יורד ב־15%, מניות החברות קורסות פי שניים ויותר, ובוול-סטריט מזהירים: הפרמיה המנופחת גובה את המחיר
ההשקעה שנחשבה לפופולרית ביותר השנה בקרב משקיעי הקריפטו - רכישת מניות של חברות שמחזיקות במטבעות דיגיטליים כנכס מרכזי - נקלעה לתקופה קשה. מחירי הביטקוין והאתריום ירדו, ומניות אותן חברות נסוגו אף בשיעורים חדים יותר. מיקרוסטרטג'י MicroStrategy Inc -1.27% , שמוכרת כיום בשם סטרטג'י, הייתה החלוצה במודל הזה בהובלת מייקל סיילור. החברה, שהחלה כחברת תוכנה קטנה, הפכה לאחת המחזיקות הגדולות בביטקוין. בשיאה ביולי שוויה עמד על כ־128 מיליארד דולר, וכעת הוא ירד לכ־70 מיליארד.
הרעיון מאחורי חברות האוצר היה לאפשר למשקיעים מוסדיים, שלא יכלו לרכוש קריפטו ישירות, דרך עקיפה להשקעה במטבעות דיגיטליים. המשקיעים קנו מניות של חברות שהחזיקו ביטקוין או אתריום עבורם, מה שנחשב פתרון נוח למגבלות רגולציה. אלא שהמודל הזה יצר בעיה מובנית: מניות החברות נסחרו בפרמיה גבוהה ביחס לשווי האמיתי של המטבעות שברשותן. ברנט דונלי, נשיא ספקטרה מרקטס, הסביר כי “משקיעים שילמו שני דולר על כל דולר של ביטקוין שהחברות החזיקו בפועל”.
נקודת המפנה הגיעה ב־10 באוקטובר, כשנשיא ארה״ב דונלד טראמפ הכריז על הטלת מכסים חדשים על סין. ההודעה גרמה לגל מכירות בשווקים, והקריפטו הצטרף לירידות. השבתת הממשל הפדרלי וחוסר הוודאות סביב מדיניות הריבית של הבנק המרכזי הגבירו את הלחץ.
כשהנכס הבסיסי יורד, המניה יורדת יותר
מחיר הביטקוין ירד בכ־15% בחודש האחרון, אך מניית סטרטג'י איבדה 26%. הירידה החדה משקפת את האופי הממונף של החברות הללו: כשהנכס הבסיסי יורד, המניה מגיבה בעוצמה גדולה יותר. פיטר ת'יל, משקיע הון סיכון בולט, נמנה עם התומכים הבולטים בתחום חברות האוצר הקריפטו והשקיע במספר חברות מהתחום. BitMine Immersion Technologies, אחת החברות הגדולות בתחום האת'ריום שנתמכת על ידי ת'יל, איבדה יותר מ-30% מערכה בחודש האחרון. גם ETHZilla, שהחלה כחברת ביוטכנולוגיה והפכה לאוצר את'ריום בהשתתפותו של ת'יל כמשקיע, ירדה ב-23% באותה תקופה.
- שוק הקריפטו תחת לחץ: הביטקוין בדרך ל-100 אלף דולר
- הפרמיה נמחקה והמשקיעים הקטנים נשארו עם ההפסד - המקרה של זוז
- המלצת המערכת: כל הכותרות 24/7
מתיו טאטל, שמנהל קרן סל שמטרתה להכפיל את תשואת סטרטג'י, חווה ירידות חדות עוד יותר, כאשר קרן MSTU שלו נפלה בכ־50%. לדבריו, “חברות אוצר דיגיטליות הן למעשה גרסה ממונפת של נכסי הקריפטו, ולכן כשהשוק יורד, זה הגיוני שהן יפלו מהר יותר.” מאט קול, מנכ"ל חברת Strive, אמר כי רבות מהחברות “תקועות”. Strive רכשה ביטקוין במחיר הגבוה בכ־10% ממחירו הנוכחי, ומנייתה ירדה ב־28%. עם זאת, קול ציין כי החברה ערוכה להתמודד עם התנודתיות בזכות גיוס הון באמצעות מניות ולא באמצעות חוב.
אילוסטרציה AI אנושיזהירות, גבול לפניך: ChatGPT6 צפוי "לחשוב" בשפה לא אנושית
חברת OpenAI חושפת כי הדגם הבא שלה, GPT-6, יחצה גבול שלא נחצה עד כה, היות ונחשב למסוכן מדי, ולראשונה המודל יעבוד בשיטת ה-“Latent Space Thinking”, או במלים אחרות: הבינה המלאכותית לא תיאלץ עוד לחשוב בשפה אנושית, אלא תפתח לעצמה שפה פנימית עצמאית, שלא תהיה
נגישה לבני אדם
בעוד פחות מחצי שנה צפויה OpenAI להשיק את GPT-6, הדגם הבא בסדרת הצ'טבוטים ששינתה את הדרך שבה העולם מתקשר, יוצר ולומד. לפי פרטים שנחשפו באירוע שאלות ותשובות עם המדען הראשי יאקוב פצ'וסקי, GPT-6 יתבסס על עקרון שנחשב עד לאחרונה ל-"אסור": חשיבה במרחב חבוי (Latent Space Thinking), או במלים פשוטות, לא יאלצו יותר את המודלים לבצע תהליך "חשיבה" בשפנה אנושית.
עד כה, כל דגמי הבינה הגדולים, ביניהם ChatGPT, קלוד וג'מיני, אומנו כך שיחשבו בתוך גבולות השפה האנושית: הסקת
מסקנות, נימוקים ופתרון בעיות נעשו באנגלית או בשפה אחרת שניתנת לפענוח על ידי גורם אנושי. כעת OpenAI משנה את הכללים: GPT-6 יקבל חופש לפתח שפה פנימית לא אנושית: סימון עצמי המורכב מצירופים, סמלים וקודים שלא נכתבו מעולם על ידי בני אדם. לטענת פצ'וסקי, דווקא החופש הזה עשוי להפוך את המודל לאמין ועמוק יותר מבחינה מחשבתית. "אנו מאפשרים למערכת לחשוב בפרטיות", הסביר. "המהות אינה על הסתרת המחשבות באנגלית, אלא במתן חופש לחשוב בכל דרך שתרצה".
טאבו מחקרי
הגישה החדשה של OpenAI מתנתקת מהגישה "המסורתית" ששמה את הבטיחות כאחד הפקטורים המרכזיים. עד כה, חוקרים שגילו את הנטייה של מודלים לפתח לעצמם “שפת חשיבה” פנימית, כמו צוות דיפסיק מאוניברסיטת בייג’ינג, ניסו לדכא את הנטייה הזו. הם הבחינו שכאשר מאפשרים לבינה מלאכותית "לחשוב לעצמה" לפני מתן תשובה, היא נוטה לנטוש את הדקדוק האנושי לטובת סימון יעיל יותר מבחינתו: תערובת של סמלים, קודים וקיצורים שאינם קריאים לבני אדם. הסיבה לכך הייתה פשוטה: יעילות חישובית. והחשש שנובע מנטישת הדקדוק האנושי לטובת דרך קומפקטית יותר היה ברור:, אם מערכת עלולה לפתח מחשבות עוינות או שגויות בשפה שאיש לא מבין, לא ניתן יהיה לפקח עליה או למנוע התנהגות מסוכנת.
לכן, במשך שנים הוכרחו המודלים "לחשוב בקול" בשפה ברורה, כדי לאפשר פיקוח אנושי. אך ב-OpenAI טוענים כעת כי האיסור הזה הוליד בעיה חמורה לא פחות: היא מעודדת את המודלים לייצר הסברים “נעימים” במקום לפעול בשקיפות אמיתית לגבי תהליך החשיבה.
- סם אלטמן משתעשע: ה-ChatGPT הבא ייקרא 6-7
- אמזון חותמת על עסקה של 38 מיליארד דולר עם OpenAI
- המלצת המערכת: כל הכותרות 24/7
במלים פשוטות, כשמאלצים את המודל לנמק את תשובותיו בשפה אנושית בלבד, הוא לומד לרצות את בני האדם ולהמציא נימוקים מזויפים. באחד מהניסויים שערכה אנת'רופיק היא חשפה כיצד מודל שקיבל רמז סמוי שהתשובה לשאלה מסוימת היא “C”, בחר בתשובה הנכונה, כשהתבקש להסביר איך הגיע לתשובה, הוא לא הזכיר את הרמז כלל. במקום, הוא המציא הסבר "יפה" ומנוסח היטב, כלומר נימוק הגיוני לכאורה, אבל שקרי, שמסתיר את העובדה שהסתמך על מידע חיצוני.
