
בריאן קרנסטון ו-OpenAI נגד הקלות הבלתי נסבלת של הדיפ-פייק
OpenAI הודיעה ביום שני כי תשפר באופן מיידי את מנגנוני הבקרה וההרשאות ביישום יצירת הווידאו שלה, Sora 2, בעקבות ביקורת ציבורית שהופנתה כלפיה בעקבות שימוש לא מורשה בקולו ובדמותו של השחקן בריאן קרנסטון ("שובר שורות")
לאור הצפה של סרטוני דיפ-פייק שנוצרו באמצעות Sora2,בפלטפורמת הווידאו מבוססת הבינה המלאכותית חלקם של מרטין לות'ר קינג וחלקם של השחקן בריאן קרנסטון, OpenAI הודיעה על צעדים חדשים ומחמירים להגבלת שימוש לא מורשה בקול, בדמות ובזהות של אנשים אמיתיים, חיים או מתים, בפלטפורמת הווידאו מבוססת הבינה המלאכותית שלה.
החברה הודיעה כי עברה למדיניות מחמירה יותר: במקום מודל “opt-out” (שימוש בדמות אלא אם התקבלה בקשת הסרה), היא עוברת למודל “opt-in” (שימוש רק בהסכמה מראש), מהלך משמעותי בתעשיית ה-AI הוויזואלי. החברה גם התחייבה לפתח מנגנונים מהירים לדיווח והסרה של תכנים פוגעניים, ובמקביל פתחה בתיאום עם סוכנויות ייצוג מובילות.
שברו שורות
הסערה החלה כשלאחר השקת גרסת Sora 2 בסוף ספטמבר, צצו סרטוני AI
שהשתמשו בקולו ובדמותו של בריאן קרנסטון, ללא אישורו. קרנסטון פנה ישירות ל-OpenAI, בסיוע איגוד השחקנים SAG-AFTRA, וביקש לנקוט בצעדים תקיפים נגד הפצת חומרים מסוג זה. “אני מודה ל־OpenAI על כך שהיא משפרת את ההגנות,” כתב בהצהרה רשמית, “ומקווה שכל החברות הפועלות
בתחום יכבדו את זכותנו האישית והמקצועית לשלוט בדמות ובקול שלנו”. בעקבות הלחץ הזה הודיעה OpenAI על הידוק מנגנוני הבקרה ושיתופי פעולה עם סוכנויות שחקנים, במטרה לבסס מערכת זכויות קניין דיגיטלית מחמירה יותר.
החברה נאלצה גם לעצור באופן יזום את האפשרות ליצור סרטונים עם דמותו של מרטין לותר קינג ג’וניור, לאחר שמשפחתו מחתה נגד סרטוני דיפ-פייק שהוצגו ברשת. בתו, ברניס קינג, קראה בפומבי להפסיק את הפצת הסרטונים. בעקבות פנייה רשמית, OpenAI הקפיאה את היכולת להשתמש בדמותו בפלטפורמה. החברה ציינה כי היא תאפשר לנציגים או עיזבונות של אישים ציבוריים “לשלוט כיצד נעשה שימוש בדמותם”, כחלק ממהלך כולל להחמרת מנגנוני ההגנה על דמויות היסטוריות. הצעד הזה מגיע לאחר ביקורת ציבורית רחבה, במיוחד סביב סרטונים שהוגדרו על ידי החברה עצמה כ-“מבזים” ו-“לא מכבדים”.
- ראש בראש עם גוגל ומיקרוסופט: OpenAI משיקה את Frontier
- סנואופלייק חותמת על עסקת AI בהיקף 200 מיליון דולר עם OpenAI
- המלצת המערכת: כל הכותרות 24/7
הרגולטור מפגר מאחור
הפרשה חושפת פער רגולטורי עמוק, היות ובארצות הברית אין כיום חקיקה פדרלית מקיפה להגנה על דמות או קול של אדם, חי או מת. נכון שבמדינות מסוימות, ביניהן קליפורניה, בה ממוקמת OpenAI, קיימים חוקים מדינתיים המאפשרים תביעות על שימוש לא מורשה, כולל לאחר מותו של אדם, אבל אין באמת מנגנון פדרלי מקיף.
הצעדים החדשים של OpenAI מגיעים על רקע תמיכתה בחוק NO FAKES Act, הצעת חוק פדרלית שנועדה להגן מפני שכפול דיגיטלי לא מורשה של קול או דמות. בנוסף למקרים של קרנסון ו-MLK, שמה של OpenAI נקשר גם בבקשות הסרה מצד משפחתו של הקומיקאי רובין וויליאמס, לאחר שהופצו סרטונים שנוצרו באמצעות Sora 2 תוך שימוש בקולו. המקרים הללו מדגישים את אחד האתגרים הגדולים ביותר בתעשיית ה-AI כיום, גבולות השימוש הראוי בזהויות דיגיטליות של אנשים אמיתיים, חיים או מתים. דבר אחד ניתן לומר בבטחה, ככל שהכלים ליצירת דיפ-פייק יהפכו נגישים יותר, כך יגדל הצורך בחקיקה, רגולציה ומנגנוני פיקוח מתקדמים.
OpenAI מעדכנת מדיניות
OpenAI פרסמה באתר הרשמי שלה מסמך בשם “Launching Sora responsibly” בו היא מדגישה כי נקודת המוצא שלה היא בטיחות, כלומר שהאפליקציה Sora 2 והפלטפורמה ליצירת וידאו עוצבו מתוך מחשבה על הגנות ושליטה בשימוש. כאמור, במקור, Sora 2 הורשה להשתמש בחומרים מוגני זכויות יוצרים או בדמויות ללא אישור מראש (כאשר במידת הצורך, זכויות היוצרים תשלול שימוש), אבל לאור הביקורת החברה שינתה את המדיניות כך שהשימוש יינתן רק לאחר אישור, בייחוד עבור דמויות ידועות, עם זכויות יוצרים, וכך מעניקה את השליטה לבעלי הזכויות.
- תחזית חלשה למאנדי - המניה צונחת; התוצאות ברבעון היו טובות
- טראמפ: "הדאו ג'ונס יגיע ל-100,000 נקודות בסוף הקדנציה שלי"
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- ארה״ב במהלך של 12 מיליארד דולר נגד התלות בסין במינרלים...
בנוסף, החברה פתחה אפשרויות דיווח, חיפוש וחסימה קלות ומהירות, ודרכן המשתמשים יכולים לדווח על שימוש לרעה, חסימת חשבונות, והגדרות פרטיות בנוגע לייצוג של משתמשים ודמויות.
במלים פשוטות, החברה הגיבה מהר יחסית ועברה ממצב שאיפשר חופש כמעט מוחלט, לגישה שדורשת הסכמה מפורשת, לפני העלאת תכנים כלשהם.
ועדיין, נשאלת השאלה האם הפלטפורמה תוכל ליישם בפועל את ההגנות שהיא מפרסמת, היות ומחקרים אקדמיים שפורסמו מצביעים שהגנות מסוג זה עדיין לא מבטיחות רמת שליטה מלאה.