אפל
אפל

אפל תנתח נתוני משתמשים לאימון AI

בעזרת שיטה שמשווה מידע סינתטי עם דוגמאות מהודעות אמיתיות במכשיר, תוך שמירה על פרטיות המשתמשים, אפל מנסה לשפר את יכולות ה-AI ולצמצם את הפערים מהמתחרות

אדיר בן עמי | (1)


אפל Apple -1.48%  הודיעה כי תחל לנתח נתונים על מכשירי הלקוחות במטרה לשפר את פלטפורמת הבינה המלאכותית שלה, מהלך שנועד לסייע לחברה לסגור את הפער מול מתחרותיה בתחום הבינה המלאכותית. כיום, אפל מאמנת בדרך כלל מודלים של בינה מלאכותית באמצעות נתונים סינתטיים — מידע שנועד לחקות קלטים מהעולם האמיתי ללא פרטים אישיים. אולם מידע סינתטי זה אינו תמיד מייצג נתוני לקוחות אמיתיים, מה שמקשה על מערכות הבינה המלאכותית שלה לפעול כראוי.


הגישה החדשה תטפל בבעיה זו תוך הבטחה שנתוני המשתמש יישארו במכשירי הלקוחות ולא ישמשו ישירות לאימון מודלים של בינה מלאכותית. הרעיון הוא לסייע לאפל לסגור את הפער מול מתחרים כמו OpenAI ואלפאבית, שיש להם פחות מגבלות פרטיות.


הטכנולוגיה תפעל כך: היא לוקחת את הנתונים הסינתטיים שאפל יצרה ומשווה אותם לדגימה אחרונה של הודעות דואר אלקטרוני של המשתמש באפליקציית הדואר האלקטרוני של האייפון, האייפד והמק. באמצעות שימוש בהודעות דואר אלקטרוני אמיתיות לבדיקת הקלטים המזויפים, אפל יכולה אז לקבוע אילו פריטים בתוך מאגר הנתונים הסינתטיים שלה תואמים ביותר להודעות מהעולם האמיתי. תובנות אלה יסייעו לחברה לשפר תכונות הקשורות לטקסט בפלטפורמת Apple Intelligence, כגון סיכומים בהתראות, היכולת לסנתז מחשבות בכלי הכתיבה שלה, וסיכומים של הודעות משתמש.


"בעת יצירת נתונים סינתטיים, המטרה שלנו היא ליצור משפטים או הודעות דואר אלקטרוני סינתטיים שדומים מספיק בנושא או בסגנון לדבר האמיתי כדי לעזור לשפר את המודלים שלנו לסיכום, אך מבלי שאפל תאסוף הודעות דואר אלקטרוני מהמכשיר," כתבה החברה בפוסט בבלוג המכונות הלומדות שלה ביום שני.


מודלי שפה גדולים הם הטכנולוגיה בליבה של בינה מלאכותית מודרנית, והם מפעילים את התכונות ב-Apple Intelligence, שהחברה השיקה בשנה שעברה. בנוסף לשימוש בנתונים סינתטיים, אפל אימנה את המודלים שלה עם מידע שרכשה ברישיון מצדדים שלישיים או מצאה על ידי סריקת האינטרנט הפתוח. ההסתמכות על נתונים סינתטיים הייתה בעלת מכשולים, כאשר כלי החברה מציגים רעיונות באופן שגוי בהתראות ואינם מסוגלים לספק סיכומים מדויקים של טקסט במקרים מסוימים.


החברה תשיק את המערכת החדשה בגרסת בטא עתידית של iOS ו-iPadOS 18.5 ו-macOS 15.5. בטא שנייה של אותן גרסאות עתידיות סופקה למפתחים מוקדם יותר ביום שני. יצרנית האייפון אמרה גם שהיא מביאה דרכים ממוקדות פרטיות לשיפור המודלים המשמשים להפעלת תכונות Apple Intelligence אחרות, כמו Image Playground, Image Wand, Memories Creation ו-Visual Intelligence.



פרטיות דיפרנציאלית 

כבר עכשיו, החברה הסתמכה על טכנולוגיה הנקראת פרטיות דיפרנציאלית כדי לעזור לשפר את תכונת Genmoji שלה, המאפשרת למשתמשים ליצור אימוג'י מותאם אישית. היא משתמשת במערכת זו כדי "לזהות בקשות פופולריות ודפוסי בקשות, תוך מתן ערבות מתמטית שבקשות ייחודיות או נדירות אינן מתגלות," אמרה החברה בפוסט.

קיראו עוד ב"BizTech"


הרעיון הוא לעקוב אחר אופן תגובת המודל במצבים שבהם משתמשים רבים ביקשו את אותה בקשה ושיפור התוצאות במקרים אלה. התכונות הן רק עבור משתמשים שנרשמו לאנליטיקה של המכשיר ויכולות שיפור המוצר. אפשרויות אלה מנוהלות בכרטיסיית פרטיות ואבטחה בתוך אפליקציית ההגדרות במכשירי החברה.


"בהתבסס על שנים רבות של ניסיון בשימוש בטכניקות כמו פרטיות דיפרנציאלית, וכן טכניקות חדשות כמו יצירת נתונים סינתטיים, אנו מסוגלים לשפר את תכונות Apple Intelligence תוך הגנה על פרטיות המשתמש עבור משתמשים שנרשמו לתוכנית האנליטיקה של המכשיר," אמרה החברה.


צוות הבינה המלאכותית של אפל נמצא בסערה במשך מספר חודשים, כאשר בבלומברג דווח לאחרונהעל מאבקי הארגון, בעיות מנהיגות, עיכובים במוצר ושינויים בהנהלה. במרץ, אפל שינתה חלק מההנהלה של קבוצת הבינה המלאכותית שלה, הסירה את האחריות על סירי מהמנהל ג'ון ג'יאננדריאה והעבירה את קבוצת העוזרת הקולית ליוצר Vision Pro מייק רוקוול ולמנהל התוכנה קרייג פדריגי. החברה מתכננת להכריז על שדרוגי Apple Intelligence ביוני אך לא תיישם את השדרוגים המצופים עבור סירי עד השנה הבאה.

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    טים יתנצל בפני הלקוחות לא משתמשים במידע אישי רק פייסבוק וטוויטר וWhatsApp. (ל"ת)
    ליטאי 16/04/2025 00:51
    הגב לתגובה זו
עובדים בהייטק אופן ספייס
צילום: דאלי אי

מהפכת ה-AI בהייטק הישראלי: 15 אלף מפתחים כבר בשטח

מהם תפקידי ה-AI הבולטים בהייטק הישראלי? מחקר חדש של RISE Israel מספק תשובות וגם - תפקידי הבינה המלאכותית דורשים פי שניים יותר בעלי תארים מתקדמים, הביקוש למתכנתים "פשוטים" יורד. אין בעיית כוח אדם, יש בעיית כישורים 

אדיר בן עמי |

כשמדברים על מחסור בכוח אדם בהייטק הישראלי, התמונה המצטיירת היא לרוב של מעסיקים נואשים המחפשים עובדים וחברות שתוכניות הפיתוח שלהן נפגעות. אבל מחקר של מכון RISE Israel, שפורסם השבוע, מציג מציאות שונה לחלוטין: המחסור אינו בהיצע כוח האדם, אלא בסוג הכישורים הנדרשים לעידן החדש של בינה מלאכותית.

המחקר, שנערך בשיתוף קרן טראמפ למצוינות בחינוך, כולל ראיונות עומק עם מנהלי טכנולוגיה והון אנושי מחברות מובילות כמו Google, Lightricks, Cellebrite, Fiverr ו-Hailo Technologies, בנוסף לניתוח של מאגרי נתונים מלינקדאין ומאתרי דרושים. התוצאה: תמונה מורכבת של שוק עבודה שעובר טרנספורמציה עמוקה, שבה הכללים הישנים כבר לא חלים.

"אולי יש מחסור באנשי AI אבל אין מחסור ב-Talent"

הממצא המפתיע ביותר עולה מפי אחת המרואיינות, שניסחה אותו בצורה תמציתית: "אולי יש מחסור באנשי AI אבל אין מחסור ב-Talent שניתן להכשיר כאנשי AI".  במספר המועסקים בהייטק הישראלי קיים קיפאון של שנתיים, כפי שעולה מנתוני הלשכה המרכזית לסטטיסטיקה. "הגורם המשפיע ביותר על התעסוקה בהייטק בכלל, ובמקצועות ה-AI בפרט, הוא מצב המאקרו - שוק העבודה בישראל רפוי, ולכן בסה"כ אין מחסור בהון אנושי", נכתב במחקר.

התוצאה: יש קיפאון של שנתיים במספר המועסקים בהייטק, מה שמוביל למצב של עודף ביקוש לתעסוקה. במקצועות מסוימים ההיצע מצומצם יחסית, מה שגורם לעליות שכר או להתפשרות של מעסיקים על חלק מהדרישות שלהם ממועמד 'אידיאלי', אך אף חברה מאלה שראיינו לא אמרה שהיא אינה יכולה לגייס עובדים, או שתכניות הפיתוח שלה נפגעות משמעותית בגלל מחסור בעובדים".

המחקר מתעד שינוי מהותי באופי התעסוקה בהייטק. "שימוש בכלי AI מייעל עבודות תכנות 'פשוטות' ולכן חלק מהחברות מקטינות, או מתכוונות להקטין את מספר המתכנתים העוסקים בעבודות אלה", נכתב בדוח. אבל זה רק חלק אחד של התמונה.

מימין בובי גילבורד, סמנכ"ל טכנולוגיה, ומשמאל עומרי אילוז מנכ"ל החברה, באדיבות לומיהמימין בובי גילבורד, סמנכ"ל טכנולוגיה, ומשמאל עומרי אילוז מנכ"ל החברה, באדיבות לומיה

Lumia, המספקת הגנה בזמן שימוש ב-AI, מגייסת 18 מיליון דולר

לומיה סקיוריטי, סטארט אפ ישראלי שלו פלטפורמה להגנה על ארגונים מפני סיכונים וחולשות הנוצרים משימוש בלתי מבוקר בכלי AI, הוקמה רק השנה על ידי יוצאי 8200


הדס ברטל |

לומיה סקיוריטי (Lumia security) היא חברת אבטחת AI שנחשפת לראשונה עם גיוס סיד בסך 18 מיליון דולר. הפלטפורמה שלה ייעודית לצוותי האבטחה בארגונים, ומנטרת ומפקחת אחר השימוש ב-AI מצד העובדים ומצד האייג׳נטים. החברה הוקמה ב-2025 על ידי עומרי אילוז, שמכהן כמנכ"ל ובובי גילבורד, המכהן כסמנכ"ל טכנולוגיה. אילוז הוא יזם סדרתי, הקים והוביל את PerimeterX, חברת הסייבר שנרכשה על ידי Human Security האמריקאית. אל"מ (במיל') בובי גילבורד היה סמנכ"ל החדשנות ב-Team8, ולפני כן שירת כקצין בכיר ב-8200 במשך 26 שנים. בין תפקידיו הצבאיים – ראש המחקר הטכנולוגי ביחידה, אחראי על אבטחת הענן של אמ״ן, ואף קיבל את פרס ביטחון ישראל על תרומתו. המייסדים בעלי רקורד עשיר וניסיון ארוך שנים באבטחת סייבר ובפיתוח יכולות טכנולוגיות המשמשות אלפים בתפוצה גלובלית רחבה. היזמים חברו לקרן Team8 בתהליך ה-Ideation, וכך החלה דרכם המשותפת. ללומיה משרדים בניו יורק ובישראל, בהם מועסקים 20 עובדי פיתוח ומחקר, והחברה מתכננת להגדיל את הצוותים ב-2026.

החברה הוקמה כחלק ממודל ה-Venture Creation של Team8, שהובילה את סבב הגיוס בהשתתפות New Era. ההשקעה תאפשר את הרחבת ההון האנושי בדגש על צוותי ה-R&D, האצת פיתוח המוצר והגדלת פעילות החברה בשווקים הבינ"ל ע"י הרחבת פעילות השיווק והמכירות. הפלטפורמה כבר נמצאת בשימוש על ידי מוסדות פיננסיים וארגוני תעשייה וטכנולוגיה המנהלים מידע רגיש.   

החברה פועלת בשוק AI באבטחת סייבר שצומח בקצב מהיר והוערך ב-2024 בכ-26.6 מיליארד דולר, צפוי לגדול בקצב שנתי של 31% ולהגיע לכ-234.6 מיליארד דולר עד שנת 2032. במרבית הארגונים נרשם שימוש גובר ובלתי מבוקר בכלי AI מצד עובדים, תוך היעדר נראות ושליטה מצד צוותי האבטחה. לפי דו"ח חדש של Team8 שנערך בשיתוף Ciso’s, עלה כי סוכני AI הופכים למרכיב מרכזי בתשתיות הארגוניות - כ- 70% מהארגונים משתמשים ב-AI Agents בפרודקשן, 23% מתכננים להכניסם עד 2026, ו-67% מהארגונים מפתחים סוכנים פנימיים בעצמם. למרות שאימוץ AI נמצא בעלייה חדה (97% מהחברות), כמחצית מהן מגבילות את השימוש בכלים הפנימיים בשל סיכוני אבטחה והיעדר רגולציה, והחברות מתמודדות עם האתגרים בהגנת סוכני בינה מלאכותית (37%) וניהול שימוש העובדים (36%).

הבעיה העיקרית נובעת מכך שאין בידי צוות הבקרה את הכלים לנטר אחר המשתמשים והאייג'נטים, לבחון מה הסיכונים והחשיפה לארגון כתוצאה מאינטראקציות, מה כל סוכן מבצע בפועל, תחת אילו הרשאות ומה ההשלכות העסקיות. כתוצאה מכך נוצרים פערי אבטחה ללא מטופלים, לצד גישות ופעילויות לא מבוקרות במערכות הארגון. כל אלו מובילים חלק מהארגונים להגביל או לחסום שימוש ב-AI גם על חשבון פגיעה בתפוקה, מה מדגיש את הצורך הדחוף בשקיפות, רגולציה ופיקוח אחר שימוש אחראי בבינה מלאכותית בסביבות ארגוניות.


צוות לומיה, באדיבות החברה
צוות לומיה - קרדיט: באדיבות החברה