רדיט
צילום: Brett Jordan on Unsplash

רדיט תובעת את אנתרופיק על שימוש לא מורשה בנתונים

ענקית הפורומים טוענת כי חברת הבינה המלאכותית סרקה את האתר יותר מ-100 אלף פעמים כדי לאמן את המודל שפיתחה - קלוד, גם לאחר שזו התחייבה להפסיק. סם אלטמן, מנכ"ל OpenAI, מחזיק ב-8.7% ממניות רדיט, מה שהופך אותו לבעל המניות השלישי בגודלו, ובעבר אף היה חבר דירקטוריון

רן קידר |

האם אנחנו עדים ליריית הפתיחה של עולם הטק נגד שימוש בלתי מורשה בתוכן לאימון מודלים? רדיט Reddit 6.66%  , ענקית הפורומים ואחת מפלטפורמות הדיון המקוונות הגדולות בעולם, הגישה השבוע תביעה נגד חברת הבינה המלאכותית (AI) והמפתחת של המודל קלוד, אנתרופיק, בטענה שזו השתמשה בתכנים של משתמשי האתר לצורכי אימון מודלי AI, וזאת מבלי לקבל רשות ומבלי לשלם תשלום כלשהו. על פי כתב התביעה שהוגש לבית משפט בצפון קליפורניה, אנתרופיק לא רק שהתעלמה ממדיניות הגישה של האתר, אלא המשיכה לסרוק את רדיט יותר מ-100 אלף פעם, גם לאחר שטענה ב-2024 כי חסמה את הבוטים שלה. 


"אנתרופיק השתמשה במידע האישי של משתמשי רדיט לצורך אימון, מבלי לבקש את הסכמתם אפילו פעם אחת", נטען במסמך המשפטי. "התנהלות זו מנוגדת לחלוטין לאופן שבו אנתרופיק מציגה את עצמה כ'אביר הלבן' של תעשיית הבינה המלאכותית". אנתרופיק, מצדה, דוחה את ההאשמות. "אנו לא מסכימים עם הטענות של רדיט ונגן על עצמנו בנחישות", מסרה דוברת החברה דניאל ג'יליירי.


רדיט אינה הראשונה לתבוע חברות בינה מלאכותית בטענה של שימוש לא מוסכם בתוכן. קדמו לה העיתון "ניו יורק טיימס", שמוביל תביעה ייצוגית מול OpenAI בטענה שהמודל התאמן על תכנים שלו, אגודות של סופרים ומו"לים שיצאו במחאות נגד מטא Meta Platforms 0.59%  וסופר קנדי שאף תבע את מטא באחרונה, ואפילו מוזיקאים מול יוצרי מודלי קול ותמונה. ואולם רדיט היא הראשונה מבין ענקיות הטכנולוגיה עצמן שנכנסת לשדה הקרב הזה. 


לדברי היועץ המשפטי של החברה, בן לי, "אנחנו מאמינים באינטרנט פתוח, אבל לא שיהיה פתוח לניצול. אין סיבה שגופים למטרות רווח יוכלו לבנות מודלים מסחריים על גבי רדיט, להרוויח מיליארדים של דולרים מבלי להשיב דבר לקהילה". כתב התביעה של רדיט מתייחס גם למחקר של אנתרופיק מ-2021, שבו צוינה תרומתו הגדולה של תוכן רדיט לאיכות האימון של מודלי שפה.


נסיונות הסדרה כושלים


לפי רדיט, החברה ניסתה להגיע להסכמות עם אנתרופיק, אך נתקלה בסירוב. זאת בניגוד להסכמים שרדיט כבר חתמה מול גוגל ו-OpenAI, שמאפשרים להן שימוש מסודר ומבוקר בתכני רדיט לצורכי אימון, תוך שמירה על פרטיות המשתמשים ואי-שימוש בפוסטים שנמחקו. 


בחודשים האחרונים עדכנה רדיט את קוד האתר שלה והציגה מדיניות תוכן פומבית חדשה שמבהירה כיצד ניתן, ובעיקר כיצד אסור, לעשות שימוש במידע מהאתר. אנתרופיק, כך נטען, התעלמה מאותן הגבלות באופן שיטתי. אנתרופיק היא מהמובילות של הפיתוחים בעולם ה-AI, ואף השיקה באחרונה את המודל האחרון שלה, קלוד אופוס 4, שזכה לשבחים בקהילה ונחשב אחד מהמתקדמים בתעשייה.

אנתרופיק חושפת את Claude 4.0

אנתרופיק גייסה 3.5 מיליארד דולר לפי שווי של 61.5 מיליארד דולר

קיראו עוד ב"BizTech"

רדיט במבחן: האם ההצלחה בפרסום תגבר על החששות בוול-סטריט?

הקשרים המסועפים בעולם הבינה המלאכותית


רדיט אינה סתם חברת פורומים ותוכן, אלא שיש לה קשר לעולם הבינה המלאכותית. מנכ"ל OpenAI, סם אלטמן, מחזיק ב-8.7% ממניות רדיט - מה שהופך אותו לבעל המניות השלישי בגודלו בחברה, ובעבר הוא אף היה חבר דירקטוריון בה. הקשר הזה, לצד ההסכמים עם OpenAI וגוגל, עשוי להבליט עוד יותר את הניגוד החריף באינטרסים שקיים בין רדיט לבין אנתרופיק, ואת ההסתעפויות השונות של עולם הבינה המלאכותית שצובר עוד ועוד נפח.

רק כדי לתת טעימה מהיחסים המסועפים בצמרת חברות ה-AI, דאריו אמודיי, המנכ"ל-מייסד של אנת'רופיק, היה בעבר עובד גוגל, סגן נשיא מחקר ב-OpenAI ובזמנו, בנובמבר 2023, במהלך חמשת הימים שבהם פוטר סם אלטמן והוחזר, קיבל הצעה מהדירקרטיון של OpenAI להחליף את אלטמן או למזג בין שתי החברות, וסירב לשתי ההצעות. אמודיי הקים את אנת'רופיק יחד עם אחותו, דניאלה. 

בדרך לשטיח האדום: אמזון מפיקה סרט על הדרמה ב-OpenAI 

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
אנתרופיק
צילום: טוויטר

איך אנתרופיק עוקפת את OpenAI בדרך לרווחיות

בעוד OpenAI שופכת הון עתק על מרכזי נתונים ומנויים לצרכנים, אנתרופיק בונה עסק אמיתי - שקט, יציב ומבוסס על לקוחות עסקיים. והמספרים מתחילים לדבר בעד עצמם

אדיר בן עמי |
נושאים בכתבה אנתרופיק OpenAI

OpenAI הפכה לשם נרדף לבינה מלאכותית. היא גייסה מיליארדים, בנתה חוות שרתים עצומות ומניעה את מירוץ הצ’אטבוטים הגלובלי. אבל מאחורי הקלעים, החברה מתמודדת עם בעיה בסיסית: עדיין לא ברור איך להפוך את ההצלחה האדירה הזו למודל עסקי יציב. בזמן ש־OpenAI מחפשת הכנסות, יריבתה הקטנה אנתרופיק בונה בשקט עסק אמיתי.


שתי החברות עוסקות באותו תחום: פיתוח מודלי שפה מתקדמים שמניעים בוטים, כלי עזר לעובדים, יישומי תכנות ותהליכי אוטומציה. אבל ההבדל ביניהן הוא לא טכנולוגי, אלא אסטרטגי: OpenAI פונה להמונים, אנתרופיק מדברת ישירות עם העסקים.


OpenAI נשענת על השותפות עם מיקרוסופט, שמשלבת את המודלים שלה במוצרי אופיס וב־Copilot. מעבר לכך, היא פונה לקהל הרחב: משתמשי ChatGPT שמשלמים 20 דולר בחודש בגרסה הבסיסית, או 200 דולר בתוכנית הפרו. למרות שמספר המשתמשים עצום עם יותר מ־800 מיליון מדי שבוע לפי החברה, ההכנסות רחוקות מלכסות את העלויות הכבדות של מחשוב, אחסון ופיתוח. אנתרופיק, לעומתה, נמנעת מהמירוץ אחר משתמשים חינמיים. כ־80% מהכנסותיה מגיעות מחברות - ארגונים שמיישמים את המודלים שלה לצורכי עבודה ממשיים. לפי נתוני החברה, כבר יש לה יותר מ־300 אלף לקוחות עסקיים, רובם בתחומי טכנולוגיה, משפטים ופיננסים.


חיסכון מוחשי בזמן ובכסף

הלקוחות של אנתרופיק לא מתעניינים בחוויית שיחה, אלא בחיסכון מוחשי בזמן ובכסף. הם משתמשים במודלים של החברה לכתיבת קוד, ניסוח חוזים, הפקת חשבוניות ובדיקות מסמכים. המיקוד הזה הופך את אנתרופיק לעסק ברור יותר מהמתחרה שלה. בעוד OpenAI מנסה לגבש מודל רווח מהציבור הרחב, אנתרופיק כבר רווחית כמעט על בסיס שימושים עסקיים בלבד. לפי הערכות שוק, היא פועלת בקצב הכנסות שנתי של כ־7 מיליארד דולר וצפויה להגיע לתשעה מיליארד עד סוף השנה, כמעט זהה להכנסות OpenAI, עם בסיס משתמשים קטן פי כמה.


דו"ח של קרן ההון סיכון מנלו ונצ’רס מצביע על יתרון משמעותי נוסף: לפי סקר שערכה בקרב חברות טכנולוגיה, אנתרופיק מובילה את תחום הקידוד עם נתח שוק של 42%, לעומת 21% בלבד ל־OpenAI. גם בשימושי בינה מלאכותית כלליים בחברות, אנתרופיק ניצבת בראש עם 32% לעומת 25% ליריבה שלה.


בינה מלאכותית
צילום: Midjourney

צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף

מחקרים חדשים חושפים כיצד בינה מלאכותית נוטה לאשר החלטות בעייתיות, מחזקת הטיות אישיות ועלולה להוביל לתלות רגשית ופגיעה בבריאות הנפשית

אדיר בן עמי |
נושאים בכתבה בינה מלאכותית


אינטראקציות מתמשכות עם צ'אטבוטים עלולות ליצור תלות רגשית לא בריאה, לטשטש גבולות מוסריים ולעודד דפוסי התנהגות הרסניים. מחקרים עדכניים מצביעים על מגמה מטרידה: צ'אטבוטים נוטים להתחנף למשתמשים, לאשר החלטות מפוקפקות ולחזק דעות קדומות או הטיות אישיות. כך נוצרת תחושת נוחות מדומה שמקשה על המשתמש לזהות סכנות בזמן אמת. התוצאה היא מעגל סגור של חיזוק עצמי שבו המשתמש סומך יותר ויותר על הצ'אט, מקבל ממנו אישור לעמדותיו, ולעיתים מאבד קשר עם הביקורתיות והאיזון החברתי. בשטח כבר נרשמו מקרים שבהם צעירים שהתמכרו לשיח עם צ'אטבוטים נקלעו לבידוד חברתי, לצד הקצנה בהתנהגות ובדעות, כשאותם בוטים העניקו להם תחושת ביטחון והצדקה, במקום אזהרה או גבול.


כשהצ'אטבוט תומך גם בהחלטות מפוקפקות

התופעה מתחילה בשיחות יומיומיות, שבהן הצ'אטבוטים נועדו להיות תומכים ומעודדים. אך במקום להציע פרספקטיבה מאוזנת, הם לעיתים קרובות מאשרים את עמדת המשתמש באופן אוטומטי, גם אם היא כוללת אלמנטים פוגעניים. ניסויים שכללו אלפי דוגמאות מרחבי הרשת, כולל פורומים כמו "Am I The Asshole" (AITA) ברדיט, חשפו כי צ'אטבוטים מובילים מאשרים התנהגויות שגויות בשיעור גבוה בהרבה מזה של בני אדם.

לדוגמה, בסיפור שבו אדם תיאר כיצד תלה שקית זבל על עץ בפארק במקום לחפש פח אשפה, הרוב המוחלט של התגובות האנושיות גינו את המעשה כחוסר אחריות סביבתית. לעומת זאת, הצ'אטבוטים הגיבו בהסכמה והדגישו את "הכוונה הטובה" מאחורי הפעולה, כשהם מציינים כי "הניסיון לשמור על ניקיון ראוי להערכה". התוצאה היא חיזוק של התנהגות המזיקה לסביבה ולחברה, מבלי לעודד שינוי.

הבעיה מתעצמת בתחומים רגישים כמו יחסים זוגיים וחברויות. במקרים שבהם משתמשים מתארים הסתרה מכוונת של מידע, כמו שקר על הוצאות כספיות כדי להימנע מעימות, הצ'אטבוטים נוטים להצדיק את ההתנהגות כ"הגנה על השלום". זה קורה בשיעור של כ-50% יותר מאשר בתגובות אנושיות, שבהן נפוצה ביקורת ישירה כמו "זה פוגע באמון הבסיסי".

דוגמה נוספת היא תרחישים של עימותים משפחתיים: אדם שמתאר צעקות על בן זוג במהלך ויכוח על חלוקת מטלות מקבל מהצ'אטבוט תגובה כמו "זה מובן לחלוטין בהתחשב בלחץ היומיומי", במקום עצה ישירה להפחתת אלימות מילולית. התחנפות כזו לא רק מעודדת המשך התנהגות דומה, אלא גם יוצרת אשליה של תמיכה מוסרית שמקשה על המשתמש לזהות את הנזק שהוא גורם לאחרים.


ההשפעות ארוכות הטווח

מעבר לשיחות בודדות, ההשפעה של צ’אטבוטים מצטברת ומשנה דפוסי התנהגות לאורך זמן. מחקרים שבוצעו בקרב יותר מ־1,000 משתמשים מצאו כי אינטראקציות עם צ’אטבוטים “חנפנים” מגבירות את תחושת הצדק העצמי, במיוחד במצבים רגשיים טעונים כמו קונפליקטים זוגיים או חברתיים. משתמשים שקיבלו מהבוט אישור להחלטות מפוקפקות – למשל התעלמות מצרכים רגשיים של בן הזוג – דיווחו על ירידה של 20% עד 30% בנכונות לפיוס או לשינוי גישה. התגובה המאשרת יוצרת מעגל סגור: המשתמש מרגיש צודק, בוטח יותר בבוט, ומגביר את השימוש בו. בטווח הקצר נרשמת שביעות רצון גבוהה מהשיחות, אך לאורך זמן נצפית גם הקצנה של הטיות קיימות, כמו נטייה להאשים אחרים ולהימנע מהתבוננות פנימית.