יוטיוב
צילום: Alexander Shatov, unsplash

יוטיוב: יוצרים שהפרו את הכללים יעבור קורס חינוכי והסנקציות יבוטלו

פלטפורמת הסרטונים הפופולרית תעניק ליוצרים הזדמנות שנייה לאחר שהפרו את כלליה, בתנאי שיצפו בקורס אשר יסקור את הסיבות בגינן הסרטון שלהם הפר את ההנחיות; "מאמצים חינוכיים מצליחים לצמצם את מספר היוצרים שמפרים בשוגג את המדיניות שלנו"
איתן גרסטנפלד | (1)

יוטיוב (YouTube) תאפשר ליוצרי תוכן לקבל הזדמנות שנייה לאחר שהפרו את כלליה, באמצעות צפייה בקורס אשר יסקור את הסיבות בגינן הסרטון שלהם הפר את ההנחיות. מהלך זה נועד לצמצם את מספר הערוצים שמוסרים מהפלטפורמה של החברה שבבעלות גוגל.

לפי ההנחיות הנוכחיות, יוצרים אשר הפרו את כללי האתר מקבלים אזהרה, שנמשכת 90 יום מרגע שניתנה, במהלכה עליהם להימנע מלחזור על ההפרה שביצעו. כעת, לפי הפרוטוקול החדש, במידה והיוצרים שקיבלו הודעת הפרה יבצעו לומדה על ההפרה שביצעו, יוטיוב תסיר את האזהרה מהערוץ. המהלך האחרון מגיע לאחר שבשנת 2019, יוטיוב הודיעה כי תפרסם אזהרה חד פעמית ליוצרים שהפרו "בלא כוונה" את המדיניות שלה, מה שלדבריהם הביא לכך ש-80% מאלה שהוזהרו, "לעולם לא הפרו את המדיניות שוב".

"אנו מאמינים שמאמצים חינוכיים מצליחים לצמצם את מספר היוצרים שמפרים בשוגג את המדיניות שלנו. אנחנו גם יודעים שקבלת התראה עלולה להפריע ללוח הזמנים של הפרסום של יוצר, ועבור היוצרים שבונים עסקים באמצעות תוכנית השותפים של יוטיוב, קבלת התראה לא מכוונת היא לא רק מתסכלת, אלא יכולה להשפיע כלכלית על השורה התחתונה שלהם".

בעוד יוטיוב עוברת למערכת ניהול עדינה יותר, החברה הודיעה במהלך חודש יוני שהיא תפסיק לנטר טענות מטעות או מידע שקרי, כמו סרטונים שטוענים שהבחירות ב-2020 נגנבו מהנשיא לשעבר דונלד טראמפ. החברה מסרה אז בהודעה לעיתונות כי היא מעדכנת את ההנחיות שלה לגבי גישתה למידע מוטעה בבחירות ואמרה: "היכולת לדון בגלוי ברעיונות פוליטיים, אפילו אלה שנויים במחלוקת או מבוססים על הנחות מופרכות, היא הליבה של חברה דמוקרטית מתפקדת - במיוחד בעיצומה של עונת הבחירות".

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    המגיב 30/08/2023 20:58
    הגב לתגובה זו
    ישלח לחינוך מחדש. אני דיי בטוח שרוב ה"הפרות", זה בענייני "דיסאינפורמציה", כמו שהיה עם איזה מחשב, של איזה אחד "צייד", שבו יש הקלטות שלו מדבר עם איזה אבא כלשהו, שבמקרה הוא גם בעמדת מפתח כלשהי.
מוסטפה סולימאן מיקרוסופטמוסטפה סולימאן מיקרוסופט

ראש הבינה המלאכותית במיקרוסופט: "תפסיקו לחפש מודעות ברובוטים"

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית של מיקרוסופט, טוען שרק יצורים ביולוגיים מסוגלים לתודעה אמיתית וכל ניסיון לחקות אותה הוא טעות. לדבריו, מטרת הבינה המלאכותית היא לסייע לבני אדם, לא להחליף אותם. החברה מאמצת קו זהיר ומתרחקת מהמרוץ ליצירת מערכות "חושבות" שמובילות חברות כמו מטא ו־OpenAI

אדיר בן עמי |

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית במיקרוסופט, ביקר השבוע את מה שהוא רואה כמגמה בעייתית בתעשייה. לדבריו, מפתחים וחוקרים צריכים להפסיק לנסות לבנות מערכות שנראות כבעלות מודעות. סולימן טוען שרק יצורים ביולוגיים מסוגלים למודעות אמיתית, וכל ניסיון ליצור "מודעות מלאכותית" הוא בזבוז של זמן ומשאבים.


סולימן, שהצטרף למיקרוסופט השנה לאחר שהחברה רכשה את הסטארטאפ שהקים תמורת 650 מיליון דולר, אמר בראיון ל־CNBC במהלך כנס AfroTech ביוסטון כי העולם שואל את השאלה הלא נכונה. "כשאתה שואל שאלה לא נכונה, אתה מקבל תשובה לא נכונה", הסביר. מבחינתו, הדיון הזה אינו רק פילוסופי, הוא נוגע ישירות לאופן שבו מושקעים מיליארדים בפיתוח טכנולוגיות בינה מלאכותית.

מודעות יכולה להתקיים רק במוח ביולוגי

בזמן שמטא ואילון מאסק מפתחים בוטים שמדמים קשרים אישיים, ו־OpenAI של סם אלטמן שואפת לפתח בינה כללית הדומה ליכולות אנושיות, סולימן משרטט גבול. מיקרוסופט לא תיכנס לשוק הבוטים הרגשיים, ולא תנסה ליצור מערכות שמדמות תודעה אנושית. הטיעון שלו נשען על תיאוריה פילוסופית המכונה "נטורליזם ביולוגי", שגיבש הפילוסוף ג'ון סירל. לפי התיאוריה, מודעות יכולה להתקיים רק במוח ביולוגי. סולימן מסביר שהסיבה שאנו מעניקים זכויות לבני אדם היא היכולת שלהם לחוות כאב ולהימנע ממנו. לדבריו, למודלים של בינה מלאכותית אין תודעה, רגשות או חוויה סובייקטיבית, הם רק מדמים תגובה.


ההבחנה הזו, לדבריו, קריטית לעתיד התחום. כשמערכת בינה מלאכותית "חווה" כאב, אין כאן רגש אמיתי או סבל. מדובר בסימולציה שמדמה חוויה, אך לא בחוויה עצמה. סולימן מדגיש שהמטרה של הטכנולוגיה היא לסייע לבני אדם, לא להחליף אותם. לדבריו, זה אולי נשמע עקרוני בלבד, אך יש לכך השלכות אתיות ועסקיות משמעותיות. הגישה הזו באה לידי ביטוי במוצרים החדשים של מיקרוסופט. החברה הכריזה השבוע על יכולות חדשות לשירות Copilot, בהן בוט לשיחות קבוצתיות ודמות אינטראקטיבית בשם מיקו. כל הפיצ'רים מתוכננים כך שידגישו את זהותם כיישומי בינה מלאכותית, לא כיישויות עצמאיות. המיקוד הוא ביצירת כלים שעובדים עבור המשתמש, לא במקומו.

"אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה״

סולימן הציג גם תכונה חדשה בשם "Real Talk" - מצב שיחה שבו הקופיילוט מאתגר את המשתמש במקום להסכים איתו. הוא סיפר שבמהלך הניסויים הכלי "תקף" אותו בבדיחות כשכינה אותו "אוסף של סתירות", על כך שהוא מזהיר מפני הסכנות של בינה מלאכותית בזמן שהוא עצמו מוביל את הפיתוח שלה. לדבריו, זהו לב הסתירה של התחום כולו - טכנולוגיה שמרתקת ומאיימת בעת ובעונה אחת. "אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה", אמר. "הפחד הוא בריא. הוא מחייב אותנו להיזהר". סולימן סבור שהגישה של מיקרוסופט צריכה להיות מדודה וזהירה, בניגוד לאופטימיות האגרסיבית של חלק מהמתחרות.


מוסטפה סולימאן מיקרוסופטמוסטפה סולימאן מיקרוסופט

ראש הבינה המלאכותית במיקרוסופט: "תפסיקו לחפש מודעות ברובוטים"

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית של מיקרוסופט, טוען שרק יצורים ביולוגיים מסוגלים לתודעה אמיתית וכל ניסיון לחקות אותה הוא טעות. לדבריו, מטרת הבינה המלאכותית היא לסייע לבני אדם, לא להחליף אותם. החברה מאמצת קו זהיר ומתרחקת מהמרוץ ליצירת מערכות "חושבות" שמובילות חברות כמו מטא ו־OpenAI

אדיר בן עמי |

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית במיקרוסופט, ביקר השבוע את מה שהוא רואה כמגמה בעייתית בתעשייה. לדבריו, מפתחים וחוקרים צריכים להפסיק לנסות לבנות מערכות שנראות כבעלות מודעות. סולימן טוען שרק יצורים ביולוגיים מסוגלים למודעות אמיתית, וכל ניסיון ליצור "מודעות מלאכותית" הוא בזבוז של זמן ומשאבים.


סולימן, שהצטרף למיקרוסופט השנה לאחר שהחברה רכשה את הסטארטאפ שהקים תמורת 650 מיליון דולר, אמר בראיון ל־CNBC במהלך כנס AfroTech ביוסטון כי העולם שואל את השאלה הלא נכונה. "כשאתה שואל שאלה לא נכונה, אתה מקבל תשובה לא נכונה", הסביר. מבחינתו, הדיון הזה אינו רק פילוסופי, הוא נוגע ישירות לאופן שבו מושקעים מיליארדים בפיתוח טכנולוגיות בינה מלאכותית.

מודעות יכולה להתקיים רק במוח ביולוגי

בזמן שמטא ואילון מאסק מפתחים בוטים שמדמים קשרים אישיים, ו־OpenAI של סם אלטמן שואפת לפתח בינה כללית הדומה ליכולות אנושיות, סולימן משרטט גבול. מיקרוסופט לא תיכנס לשוק הבוטים הרגשיים, ולא תנסה ליצור מערכות שמדמות תודעה אנושית. הטיעון שלו נשען על תיאוריה פילוסופית המכונה "נטורליזם ביולוגי", שגיבש הפילוסוף ג'ון סירל. לפי התיאוריה, מודעות יכולה להתקיים רק במוח ביולוגי. סולימן מסביר שהסיבה שאנו מעניקים זכויות לבני אדם היא היכולת שלהם לחוות כאב ולהימנע ממנו. לדבריו, למודלים של בינה מלאכותית אין תודעה, רגשות או חוויה סובייקטיבית, הם רק מדמים תגובה.


ההבחנה הזו, לדבריו, קריטית לעתיד התחום. כשמערכת בינה מלאכותית "חווה" כאב, אין כאן רגש אמיתי או סבל. מדובר בסימולציה שמדמה חוויה, אך לא בחוויה עצמה. סולימן מדגיש שהמטרה של הטכנולוגיה היא לסייע לבני אדם, לא להחליף אותם. לדבריו, זה אולי נשמע עקרוני בלבד, אך יש לכך השלכות אתיות ועסקיות משמעותיות. הגישה הזו באה לידי ביטוי במוצרים החדשים של מיקרוסופט. החברה הכריזה השבוע על יכולות חדשות לשירות Copilot, בהן בוט לשיחות קבוצתיות ודמות אינטראקטיבית בשם מיקו. כל הפיצ'רים מתוכננים כך שידגישו את זהותם כיישומי בינה מלאכותית, לא כיישויות עצמאיות. המיקוד הוא ביצירת כלים שעובדים עבור המשתמש, לא במקומו.

"אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה״

סולימן הציג גם תכונה חדשה בשם "Real Talk" - מצב שיחה שבו הקופיילוט מאתגר את המשתמש במקום להסכים איתו. הוא סיפר שבמהלך הניסויים הכלי "תקף" אותו בבדיחות כשכינה אותו "אוסף של סתירות", על כך שהוא מזהיר מפני הסכנות של בינה מלאכותית בזמן שהוא עצמו מוביל את הפיתוח שלה. לדבריו, זהו לב הסתירה של התחום כולו - טכנולוגיה שמרתקת ומאיימת בעת ובעונה אחת. "אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה", אמר. "הפחד הוא בריא. הוא מחייב אותנו להיזהר". סולימן סבור שהגישה של מיקרוסופט צריכה להיות מדודה וזהירה, בניגוד לאופטימיות האגרסיבית של חלק מהמתחרות.