סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר | (1)


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.

OpenAI הודתה שההגנות הקיימות עובדות בעיקר בשיחות קצרות, אך נחלשות בשיחות ארוכות. לכן יושם דגש על שמירה על רגישות גם לאורך שיחות ממושכות או סדרת שיחות עם אותו אדם.

החברה גם תאפשר בקרוב להורים לקבוע מגבלות על אופן השימוש של ילדיהם בצ’אט, כולל קבלת מידע מפורט על התכנים שבהם הילדים נחשפים או משתתפים. במקביל, המערכת תפנה משתמשים במצוקה ישירות לגופי סיוע מקומיים, תאפשר קישור מהיר לשירותי חירום ותשקול שילוב רשת של אנשי מקצוע מוסמכים שיוכלו להתערב ישירות דרך המערכת.

קיראו עוד ב"BizTech"


צ'אטים תחת בדיקה רגולטורית

בחודשים האחרונים צ’אטבוטים שונים, כולל ChatGPT ומתחרים כמו Gemini ו־Claude, נמצאים תחת בדיקה ציבורית בעקבות תלונות רבות על סיכונים למשתמשים. ארגוני בריאות הנפש מזהירים מהסתמכות גוברת על מערכות אוטומטיות כתחליף לאנשי מקצוע.

במקביל, יותר מ־40 תובעים כלליים בארה"ב התריעו בפני חברות הבינה המלאכותית כי עליהן להגן על ילדים מפני שימוש לא ראוי במערכות, לרבות הגנה מפני תוכן מיני, התייחסות והגנה מפני בידוד וחרם חברתי והגנה ומניעת עידוד במצבים של מחשבות אובדניות ומסוכנות.

OpenAI, מצדה, מודה כי לא ניתן לפתור את האתגרים בן רגע. החברה הבהירה כי היא "עובדת בזהירות ובזהירות יתרה" על יישום החידושים, תוך הבנה שכל שינוי מחייב בדיקות מקיפות.


השאלות הגדולות שעולות כעת הן האם ניתן באמת לסמוך על מערכות בינה מלאכותית בשיחות רגישות, והאם שינויים טכנולוגיים בלבד מספיקים כדי למנוע טרגדיות נוספות. מצד אחד, ההיקף העצום של השימוש בצ’אט - יותר מ-700 מיליון משתמשים בשבוע, מראה עד כמה המערכת הפכה לכלי יומיומי עבור רבים, כולל צעירים. מצד שני, עצם הפופולריות שלה מחדדת את האחריות על החברה שמפעילה אותה.

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    נכון. גם אני מצאתי שהצט מביע דיעה או מביא סימוכין. (ל"ת)
    אנונימי 27/08/2025 11:21
    הגב לתגובה זו