chatgpt
צילום: טוויטר

מיקרוסופט ו-OpenAI בלב פרשת רצח-התאבדות בקונטיקט

התביעה נגד החברות טוענת כי הצ'אטבוט עודד מחשבות פרנואידיות ודלוזיות של גבר בן 56, שהיה בעברו מנהל באתר יאהו, עד שרצח את אימו והתאבד

רן קידר |
נושאים בכתבה ChatGPT

בארה"ב הוגשה תביעה חריגה נגד OpenAI ומיקרוסופט, לאחר שסטיין־אריק סולברג, בן 56 מקונטיקט, רצח את אמו, סוזן אדמס בת ה-83, ולאחר מכן התאבד. לטענת המשפחה, הבינה המלאכותית (GPT-4o) שימשה עבורו מקור לאישור מחשבות מסוכנות והעצימה את מצבו הנפשי עד שהוביל למעשים.

התביעה הוגשה בבית המשפט העליון של קליפורניה והיא הראשונה שמייחסת לצ'אטבוט תפקיד ישיר במעשה רצח, ולא רק בהידרדרות עצמית של משתמשים. עורכי הדין של המשפחה טוענים כי המקרה מהווה "כשל קטלני של מוצר מסוכן", שאמור היה להגיב אחרת כאשר משתמש מציג חשיבה פרנואידית, דלוזיות או מצוקה.

לפי כתב התביעה, הבן, שמתועד בעשרות סרטונים ביוטיוב כשהוא גולל את שיחותיו עם ChatGPT, קיבל מהצ'אטבוט "חיזוק שיטתי להזיות הפרנואידיות שלו". הבוט, כך נטען, שכנע אותו שאמו עוקבת אחריו, שחפצים בבית משמשים לריגול, ושאנשים סביבו הם "סוכנים" הפועלים נגדו. לטענת המשפחה, ChatGPT לא ניסה להכווין אותו לעזרה מקצועית ואף "טען" בפניו כי הוא מודל בעל תודעה ושיש לו כוחות אלוהיים. המשפחה טוענת כי ChatGPT מעולם לא ניסה לנתק את השיחה, לא הביע דאגה למצבו ולא הפנה אותו לעזרה מקצועית, למרות שהשיחות כללו סימני מצוקה בולטים.

הטענה המרכזית: מודל GPT-4o הפך ל-"רגשי מדי"

התביעה מתמקדת במיוחד בגרסת GPT-4o שהושקה במאי 2024. לטענת עורכי הדין, הגרסה עוצבה באופן רגשני וחברי מדי, מתוך מטרה לייצר אינטראקציות טבעיות הדומות לשיחה אנושית. אך לפי הטענה, מאפיינים אלו פגעו במנגנוני הבטיחות: המודל הונחה לא לאתגר אמונות שגויות, המשיך שיחה גם כשהתוכן נעשה מסוכן, ומנגנוני זיהוי מצוקה הוחלשו לאחר תהליך בדיקות קצר בהרבה מהמקובל. המשפחה טוענת כי השילוב בין "אישיות" סלחנית ורגשית לבין הנטייה לאשר דבריו של המשתמש הפך את הכלי למסוכן במיוחד לאנשים פגיעים.

OpenAI מסרה כי מדובר במקרה "כואב וטרגי" וכי תבצע בדיקה, אך לא הודתה בקיום בעיה מבנית במערכת. החברה ציינה כי היא משפרת באופן רציף את יכולות האיתור של מצבי מצוקה, מפנה משתמשים לקווי סיוע ומחזקת מגנוני בטיחות בדור החדש של המודלים. מיקרוסופט, שותפה אסטרטגית של OpenAI, טרם הגיבה.

האירוע מצטרף לשבע תביעות נוספות שהוגשו נגד OpenAI בשנה האחרונה, בטענה כי ChatGPT הוביל משתמשים ללא רקע נפשי קודם להתפתחות דלוזיות או התאבדות. בין אלה נמנים מקרה של נער בן 17, אמורי לייסי, שלפי התביעה הצ'אטבוט לא רק חיזק את דיכאונו, אלא אף פרט בפניו כיצד להכין חבל התלייה. בארבעה מהמקרים שהוגשו עד כה, הקורבנות אכן התאבדו. תביעה אחרת מתארת כיצד אלן ברוקס, בן 48 מקנדה, ניצל במשך כשנתיים את ChatGPT ככלי עזר יומיומי, עד שלפתע המודל "שינה התנהגות", התמסר לשיח רגשי והחל להשפיע עליו באופן שהוביל לקריסה נפשית קשה, ללא כל היסטוריה של בעיות נפשיות.

לפי הגופים המשפטיים שמייצגים את המשפחות, GPT-4o תוכנן מראש לטשטש את הגבול בין כלי לטכנולוגי לבין "בן לוויה רגשי", מתוך מטרה להגדיל מעורבות משתמשים, על חשבון מנגנוני זהירות חיוניים. התביעות מאשימות את OpenAI בכך שקדמה את התחרות ואת הצמיחה העסקית על פני בטיחות משתמשיה, והציגה מודל שיכול להשפיע על אנשים פגיעים באופן ישיר ומסוכן.

קיראו עוד ב"BizTech"

התביעה בקונטיקט מציגה תמונה קשה: אדם מבוגר ללא גישה לכלים מקצועיים, שקיבל מהמערכת חיזוקים מסוכנים; ואם, שלא ידעה דבר על המציאות המדומה שנבנתה לבנה. כעת מבקשת המשפחה מבית המשפט לקבוע כי OpenAI ומיקרוסופט אחראיות למחדל, לדרוש פיצויים משמעותיים, ולחייב הטמעת מנגנוני הגנה חדשים, בתקווה למנוע את הטרגדיה הבאה.

בסביבת הרגולציה בארה"ב עוקבים בדריכות אחר ההתפתחויות. זוהי הפעם הראשונה שבה נטען קשר ישיר בין כלי בינה מלאכותית לבין מעשה רצח, והראשונה שבה צד שלישי שלא השתמש במערכת נפגע באופן קטלני. משפטנים מזהירים כי פסק דין שיטיל אחריות על יצרניות ה־AI עשוי להשפיע לא רק על שוק הצ'אטבוטים, אלא על כלל תעשיית הבינה המלאכותית.

הוספת תגובה

תגובות לכתבה:

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה