יוטיוב
צילום: Alexander Shatov, unsplash

יוטיוב: יוצרים שהפרו את הכללים יעבור קורס חינוכי והסנקציות יבוטלו

פלטפורמת הסרטונים הפופולרית תעניק ליוצרים הזדמנות שנייה לאחר שהפרו את כלליה, בתנאי שיצפו בקורס אשר יסקור את הסיבות בגינן הסרטון שלהם הפר את ההנחיות; "מאמצים חינוכיים מצליחים לצמצם את מספר היוצרים שמפרים בשוגג את המדיניות שלנו"
איתן גרסטנפלד | (1)

יוטיוב (YouTube) תאפשר ליוצרי תוכן לקבל הזדמנות שנייה לאחר שהפרו את כלליה, באמצעות צפייה בקורס אשר יסקור את הסיבות בגינן הסרטון שלהם הפר את ההנחיות. מהלך זה נועד לצמצם את מספר הערוצים שמוסרים מהפלטפורמה של החברה שבבעלות גוגל.

לפי ההנחיות הנוכחיות, יוצרים אשר הפרו את כללי האתר מקבלים אזהרה, שנמשכת 90 יום מרגע שניתנה, במהלכה עליהם להימנע מלחזור על ההפרה שביצעו. כעת, לפי הפרוטוקול החדש, במידה והיוצרים שקיבלו הודעת הפרה יבצעו לומדה על ההפרה שביצעו, יוטיוב תסיר את האזהרה מהערוץ. המהלך האחרון מגיע לאחר שבשנת 2019, יוטיוב הודיעה כי תפרסם אזהרה חד פעמית ליוצרים שהפרו "בלא כוונה" את המדיניות שלה, מה שלדבריהם הביא לכך ש-80% מאלה שהוזהרו, "לעולם לא הפרו את המדיניות שוב".

"אנו מאמינים שמאמצים חינוכיים מצליחים לצמצם את מספר היוצרים שמפרים בשוגג את המדיניות שלנו. אנחנו גם יודעים שקבלת התראה עלולה להפריע ללוח הזמנים של הפרסום של יוצר, ועבור היוצרים שבונים עסקים באמצעות תוכנית השותפים של יוטיוב, קבלת התראה לא מכוונת היא לא רק מתסכלת, אלא יכולה להשפיע כלכלית על השורה התחתונה שלהם".

בעוד יוטיוב עוברת למערכת ניהול עדינה יותר, החברה הודיעה במהלך חודש יוני שהיא תפסיק לנטר טענות מטעות או מידע שקרי, כמו סרטונים שטוענים שהבחירות ב-2020 נגנבו מהנשיא לשעבר דונלד טראמפ. החברה מסרה אז בהודעה לעיתונות כי היא מעדכנת את ההנחיות שלה לגבי גישתה למידע מוטעה בבחירות ואמרה: "היכולת לדון בגלוי ברעיונות פוליטיים, אפילו אלה שנויים במחלוקת או מבוססים על הנחות מופרכות, היא הליבה של חברה דמוקרטית מתפקדת - במיוחד בעיצומה של עונת הבחירות".

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    המגיב 30/08/2023 20:58
    הגב לתגובה זו
    ישלח לחינוך מחדש. אני דיי בטוח שרוב ה"הפרות", זה בענייני "דיסאינפורמציה", כמו שהיה עם איזה מחשב, של איזה אחד "צייד", שבו יש הקלטות שלו מדבר עם איזה אבא כלשהו, שבמקרה הוא גם בעמדת מפתח כלשהי.
בינה מלאכותית
צילום: Midjourney

וישראל מובילה עולמית בשימוש ב-AI

על פי דוח שימוש שפרסמה אנתרופיק (שעומדת מאחורי קלוד) ישראל מובילה את העולם בשימוש בקלוד, ביחס לגודל האוכלוסייה; על פי, OpenAI (שעומדת מאחורי ChatGPT), כ-40% מהעובדים משתמשים בכלי AI מדי יום 

רן קידר |
נושאים בכתבה בינה מלאכותית

דוחות חדשים של Anthropic ו-OpenAI מאשרים לנו את מה שכל אחת ואחד מאיתנו רואה בעצמנו, וזה שהשימוש ב-AI חודר בקצב מסחרר אל שוק העבודה והחיים האישיים. בארצות הברית כבר כ-40% מהעובדים מדווחים שהם עושים שימוש יומיומי בכלי AI כלשהו, שיעור כפול מזה שנמדד רק לפני שנתיים. עוד עולה מהדוחות כי המגמה אינה אחידה: חלק מהתחומים, המדינות והקבוצות החברתיות מאמצים את הטכנולוגיה בקצב מהיר בהרבה מאחרים, מה שמעלה חששות להעמקת פערים קיימים.

מבחינת תחומי השימוש, בתחום התכנות, הזירה הטבעית ביותר לאימוץ AI, ו-36% מכלל השימושים הוא בתיכנות. באנתרופיק מדווחים על ירידה של כ-3% בפרומפטים שעוסקים בתיקון באגים והכפלה בשימוש ליצירת קוד חדש ולבניית תוכנות שלמות. ניתן לפרש את הנתון כשמשקף גם שיפור בביצועי המודלים וגם עלייה באמון המשתמשים. 

תחום החינוך עלה מ-9% ל-12% בכלל הפרומפטים והפך לסקטור השני בגודלו: יותר ויותר מורים וסטודנטים עושים שימוש בקלוד בהכנת חומרי לימוד, בהסברים ובסיוע בכתיבת עבודות. תחום המדע גם הוא עולה, בעיקר במשימות של סינתוז ידע ומחקר ראשוני. לצד זאת, תחומי עסקים וניהול דווקא רשמו ירידה מ-6% ל-3% ו-5% ל-3% בהתאמה, מה שמרמז שהשימוש האינטנסיבי יותר מתרחש דווקא בעולמות ידע ויצירה.

ישראל אלופת העולם בשימוש בקלוד  

נתוני אנתרופיק מצביעים על ישראל כאלופה עולמית עם מדד שימוש גבוה פי 7 מהממוצע הגלובלי, אחריה סינגפור (פי 4.6) ואוסטרליה (פי 4.1). מדינות מתפתחות מציגות שימוש נמוך במיוחד, ולמשל הודו, אינדונזיה וניגריה עם פחות מחמישית מממוצע השימוש העולמי, והפעילות בהן מתרכזת כמעט אך ורק בכתיבת קוד. בארה"ב, קליפורניה מובילה בכמות מוחלטת, אך וושינגטון די.סי. ויוטה מובילות ביחס לגודל האוכלוסייה. דבר נוסף שבולט הוא סוג השימוש בהתאם לאזור הגיאוגרפי ולאופי הכלכלה המקומית, כשבפלורידה מתמקדים בפיננסים בפלורידה, בקליפורניה ב-IT ובבירה, וושינגטון די.סי, מתמקדים בעריכת מסמכים. בנוסף לגיאוגרפיה, גם החתכים הדמוגרפיים מראים מגמה "נורמלית" באימוץ טכנולוגיות חדשות, כשהצעירים הם המובילים באימוץ ושיעורי השימוש שלהם עולים בקצב מהיר, בעוד שהפער המגדרי שניכר בתחילת הדרך הולך ומצטמצם.

המשמעות הכוללת ברורה: הבינה המלאכותית מתפשטת במהירות חסרת תקדים, אך האימוץ מתרחש באופן לא שוויוני, הן בין מדינות והן בין קבוצות אוכלוסייה. ישראל ממוקמת כיום בחזית האימוץ, מה שמעניק לה יתרון כלכלי וידע משמעותי, אך במקביל מחדד את החשש מפני פערים גלובליים שצפויים להתרחב אם קצב האימוץ במדינות מתפתחות לא יתגבר.

איב סקיוריטי, המנכ"ל נדב קורנברג, ה-CRO שרון אילון וה-CTO עמית אליאב. קרדיט: יח"צאיב סקיוריטי, המנכ"ל נדב קורנברג, ה-CRO שרון אילון וה-CTO עמית אליאב. קרדיט: יח"צ

איב סקיוריטי הישראלית מגייסת 3 מיליון דולר

הסטארט אפ הישראלי, שעוסק במענה לאתגרי אבטחת הארגונים בעידן ה-Agentic AI הודיע היום על גיוס סיד בהיקף של 3 מיליון דולר והשקה של EveGuard

רן קידר |
נושאים בכתבה גיוס סיד

חברת איב סקיוריטי הישראלית הודיעה היום על גיוס סיד בהיקף של 3 מיליון דולר והשקה של EveGuard, פלטפורמת נראות ואכיפת מדיניות ל-Agentic AI שמאבטחת פעילות AI Agents בממשק עם המערכות הרגישות ביותר של ארגונים. את הסבב הובילה קרן LiveOak Ventures בהשתתפות Tau Ventures.

איב סקיוריטי נוסדה ברבעון השני של 2025 על ידי המנכ"ל נדב קורנברג, ה-CRO שרון אילון וה-CTO עמית אליאב. החברה מעסיקה כ-10 עובדים והיא מתמקדת במענה לאתגרי אבטחת הארגונים בעידן ה-Agentic AI. לחברה מרכז מו"פ פעיל בישראל והיא מרחיבה כעת את צוותי הפיתוח והאבטחה. לחברה מספר לקוחות בטא הבודקים את המוצר בענפי הביטוח, פינטק, תוכנה ואד-טק. 

ה-EveGuard מציב סוכן אבטחה חכם בין סוכני ה-AI למערכות הרגישות, אשר מגן מפני חשיפת נתונים רגישים וביצוע פעולות לא מורשות בנתונים ובמערכות ארגוניות על ידי סוכני AI. הפלטפורמה מאפשרת נראות (Visibility) של מצב סוכני ה-AI בארגון ובקרה עליהם מקצה לקצה, זיהוי חריגות והתנהגות מסוכנת לפני שנגרם נזק, הערכת סיכונים בזמן אמת ואישור או בלימה של פעולות קריטיות, תוך אכיפת מדיניות מבוססת כוונה (Intent Aware) המבינה לא רק טקסט, אלא את הכוונה מאחוריו. 

הפלטפורמה של Eve יכולה לצפות בסוכני ה-AI, באינטראקציות ביניהם, עם בני אדם ועם מערכות עסקיות קריטיות, ולנקוט בפעולה נדרשת במידה וסוכן ה-AI מבצע פעולה או החלטה שגויה כמו לדוגמא, העברת כספים שאינה מורשית או חשיפה של פרטים אישיים.  זהו למעשה ה-AITL) Agent-in-the-Loop) הראשון בתעשייה, סוכן AI הבודק ואוכף מדיניות אבטחה של סוכנים אחרים. ה-AITL מזהה אנומליות, מקבץ בקשות, מעריך סיכונים ומנהל אינטראקציות עם סוכנים אחרים ובכך, חוסך עומס ממנהלי אבטחת המידע וראשי מחלקות. 

להבדיל, במקרי Human-in-the-Loop מתן המענה לפניות בבקרה אנושית יוצר עומס, ואילו ב-AITL לסוכן ה-AI יש יותר אוטונומיה לקבלת החלטות וביצוע משימות תוך שהוא מכמת סיכון, והדבר צפוי לשנות את כללי המשחק באבטחת Agentic AI, וכך יפנה לאת המנהלים כך שיוכלו לטפל רק בסוגיות הדורשות התערבות אנושית.