אפלאפל

אפל תנתח נתוני משתמשים לאימון AI

בעזרת שיטה שמשווה מידע סינתטי עם דוגמאות מהודעות אמיתיות במכשיר, תוך שמירה על פרטיות המשתמשים, אפל מנסה לשפר את יכולות ה-AI ולצמצם את הפערים מהמתחרות

אדיר בן עמי | (1)


אפל Apple -0.49%  הודיעה כי תחל לנתח נתונים על מכשירי הלקוחות במטרה לשפר את פלטפורמת הבינה המלאכותית שלה, מהלך שנועד לסייע לחברה לסגור את הפער מול מתחרותיה בתחום הבינה המלאכותית. כיום, אפל מאמנת בדרך כלל מודלים של בינה מלאכותית באמצעות נתונים סינתטיים — מידע שנועד לחקות קלטים מהעולם האמיתי ללא פרטים אישיים. אולם מידע סינתטי זה אינו תמיד מייצג נתוני לקוחות אמיתיים, מה שמקשה על מערכות הבינה המלאכותית שלה לפעול כראוי.


הגישה החדשה תטפל בבעיה זו תוך הבטחה שנתוני המשתמש יישארו במכשירי הלקוחות ולא ישמשו ישירות לאימון מודלים של בינה מלאכותית. הרעיון הוא לסייע לאפל לסגור את הפער מול מתחרים כמו OpenAI ואלפאבית, שיש להם פחות מגבלות פרטיות.


הטכנולוגיה תפעל כך: היא לוקחת את הנתונים הסינתטיים שאפל יצרה ומשווה אותם לדגימה אחרונה של הודעות דואר אלקטרוני של המשתמש באפליקציית הדואר האלקטרוני של האייפון, האייפד והמק. באמצעות שימוש בהודעות דואר אלקטרוני אמיתיות לבדיקת הקלטים המזויפים, אפל יכולה אז לקבוע אילו פריטים בתוך מאגר הנתונים הסינתטיים שלה תואמים ביותר להודעות מהעולם האמיתי. תובנות אלה יסייעו לחברה לשפר תכונות הקשורות לטקסט בפלטפורמת Apple Intelligence, כגון סיכומים בהתראות, היכולת לסנתז מחשבות בכלי הכתיבה שלה, וסיכומים של הודעות משתמש.


"בעת יצירת נתונים סינתטיים, המטרה שלנו היא ליצור משפטים או הודעות דואר אלקטרוני סינתטיים שדומים מספיק בנושא או בסגנון לדבר האמיתי כדי לעזור לשפר את המודלים שלנו לסיכום, אך מבלי שאפל תאסוף הודעות דואר אלקטרוני מהמכשיר," כתבה החברה בפוסט בבלוג המכונות הלומדות שלה ביום שני.


מודלי שפה גדולים הם הטכנולוגיה בליבה של בינה מלאכותית מודרנית, והם מפעילים את התכונות ב-Apple Intelligence, שהחברה השיקה בשנה שעברה. בנוסף לשימוש בנתונים סינתטיים, אפל אימנה את המודלים שלה עם מידע שרכשה ברישיון מצדדים שלישיים או מצאה על ידי סריקת האינטרנט הפתוח. ההסתמכות על נתונים סינתטיים הייתה בעלת מכשולים, כאשר כלי החברה מציגים רעיונות באופן שגוי בהתראות ואינם מסוגלים לספק סיכומים מדויקים של טקסט במקרים מסוימים.


החברה תשיק את המערכת החדשה בגרסת בטא עתידית של iOS ו-iPadOS 18.5 ו-macOS 15.5. בטא שנייה של אותן גרסאות עתידיות סופקה למפתחים מוקדם יותר ביום שני. יצרנית האייפון אמרה גם שהיא מביאה דרכים ממוקדות פרטיות לשיפור המודלים המשמשים להפעלת תכונות Apple Intelligence אחרות, כמו Image Playground, Image Wand, Memories Creation ו-Visual Intelligence.



פרטיות דיפרנציאלית 

כבר עכשיו, החברה הסתמכה על טכנולוגיה הנקראת פרטיות דיפרנציאלית כדי לעזור לשפר את תכונת Genmoji שלה, המאפשרת למשתמשים ליצור אימוג'י מותאם אישית. היא משתמשת במערכת זו כדי "לזהות בקשות פופולריות ודפוסי בקשות, תוך מתן ערבות מתמטית שבקשות ייחודיות או נדירות אינן מתגלות," אמרה החברה בפוסט.

קיראו עוד ב"BizTech"


הרעיון הוא לעקוב אחר אופן תגובת המודל במצבים שבהם משתמשים רבים ביקשו את אותה בקשה ושיפור התוצאות במקרים אלה. התכונות הן רק עבור משתמשים שנרשמו לאנליטיקה של המכשיר ויכולות שיפור המוצר. אפשרויות אלה מנוהלות בכרטיסיית פרטיות ואבטחה בתוך אפליקציית ההגדרות במכשירי החברה.


"בהתבסס על שנים רבות של ניסיון בשימוש בטכניקות כמו פרטיות דיפרנציאלית, וכן טכניקות חדשות כמו יצירת נתונים סינתטיים, אנו מסוגלים לשפר את תכונות Apple Intelligence תוך הגנה על פרטיות המשתמש עבור משתמשים שנרשמו לתוכנית האנליטיקה של המכשיר," אמרה החברה.


צוות הבינה המלאכותית של אפל נמצא בסערה במשך מספר חודשים, כאשר בבלומברג דווח לאחרונהעל מאבקי הארגון, בעיות מנהיגות, עיכובים במוצר ושינויים בהנהלה. במרץ, אפל שינתה חלק מההנהלה של קבוצת הבינה המלאכותית שלה, הסירה את האחריות על סירי מהמנהל ג'ון ג'יאננדריאה והעבירה את קבוצת העוזרת הקולית ליוצר Vision Pro מייק רוקוול ולמנהל התוכנה קרייג פדריגי. החברה מתכננת להכריז על שדרוגי Apple Intelligence ביוני אך לא תיישם את השדרוגים המצופים עבור סירי עד השנה הבאה.

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    טים יתנצל בפני הלקוחות לא משתמשים במידע אישי רק פייסבוק וטוויטר וWhatsApp. (ל"ת)
    ליטאי 16/04/2025 00:51
    הגב לתגובה זו
מוסטפה סולימאן מיקרוסופטמוסטפה סולימאן מיקרוסופט

ראש הבינה המלאכותית במיקרוסופט: "תפסיקו לחפש מודעות ברובוטים"

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית של מיקרוסופט, טוען שרק יצורים ביולוגיים מסוגלים לתודעה אמיתית וכל ניסיון לחקות אותה הוא טעות. לדבריו, מטרת הבינה המלאכותית היא לסייע לבני אדם, לא להחליף אותם. החברה מאמצת קו זהיר ומתרחקת מהמרוץ ליצירת מערכות "חושבות" שמובילות חברות כמו מטא ו־OpenAI

אדיר בן עמי |

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית במיקרוסופט, ביקר השבוע את מה שהוא רואה כמגמה בעייתית בתעשייה. לדבריו, מפתחים וחוקרים צריכים להפסיק לנסות לבנות מערכות שנראות כבעלות מודעות. סולימן טוען שרק יצורים ביולוגיים מסוגלים למודעות אמיתית, וכל ניסיון ליצור "מודעות מלאכותית" הוא בזבוז של זמן ומשאבים.


סולימן, שהצטרף למיקרוסופט השנה לאחר שהחברה רכשה את הסטארטאפ שהקים תמורת 650 מיליון דולר, אמר בראיון ל־CNBC במהלך כנס AfroTech ביוסטון כי העולם שואל את השאלה הלא נכונה. "כשאתה שואל שאלה לא נכונה, אתה מקבל תשובה לא נכונה", הסביר. מבחינתו, הדיון הזה אינו רק פילוסופי, הוא נוגע ישירות לאופן שבו מושקעים מיליארדים בפיתוח טכנולוגיות בינה מלאכותית.

מודעות יכולה להתקיים רק במוח ביולוגי

בזמן שמטא ואילון מאסק מפתחים בוטים שמדמים קשרים אישיים, ו־OpenAI של סם אלטמן שואפת לפתח בינה כללית הדומה ליכולות אנושיות, סולימן משרטט גבול. מיקרוסופט לא תיכנס לשוק הבוטים הרגשיים, ולא תנסה ליצור מערכות שמדמות תודעה אנושית. הטיעון שלו נשען על תיאוריה פילוסופית המכונה "נטורליזם ביולוגי", שגיבש הפילוסוף ג'ון סירל. לפי התיאוריה, מודעות יכולה להתקיים רק במוח ביולוגי. סולימן מסביר שהסיבה שאנו מעניקים זכויות לבני אדם היא היכולת שלהם לחוות כאב ולהימנע ממנו. לדבריו, למודלים של בינה מלאכותית אין תודעה, רגשות או חוויה סובייקטיבית, הם רק מדמים תגובה.


ההבחנה הזו, לדבריו, קריטית לעתיד התחום. כשמערכת בינה מלאכותית "חווה" כאב, אין כאן רגש אמיתי או סבל. מדובר בסימולציה שמדמה חוויה, אך לא בחוויה עצמה. סולימן מדגיש שהמטרה של הטכנולוגיה היא לסייע לבני אדם, לא להחליף אותם. לדבריו, זה אולי נשמע עקרוני בלבד, אך יש לכך השלכות אתיות ועסקיות משמעותיות. הגישה הזו באה לידי ביטוי במוצרים החדשים של מיקרוסופט. החברה הכריזה השבוע על יכולות חדשות לשירות Copilot, בהן בוט לשיחות קבוצתיות ודמות אינטראקטיבית בשם מיקו. כל הפיצ'רים מתוכננים כך שידגישו את זהותם כיישומי בינה מלאכותית, לא כיישויות עצמאיות. המיקוד הוא ביצירת כלים שעובדים עבור המשתמש, לא במקומו.

"אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה״

סולימן הציג גם תכונה חדשה בשם "Real Talk" - מצב שיחה שבו הקופיילוט מאתגר את המשתמש במקום להסכים איתו. הוא סיפר שבמהלך הניסויים הכלי "תקף" אותו בבדיחות כשכינה אותו "אוסף של סתירות", על כך שהוא מזהיר מפני הסכנות של בינה מלאכותית בזמן שהוא עצמו מוביל את הפיתוח שלה. לדבריו, זהו לב הסתירה של התחום כולו - טכנולוגיה שמרתקת ומאיימת בעת ובעונה אחת. "אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה", אמר. "הפחד הוא בריא. הוא מחייב אותנו להיזהר". סולימן סבור שהגישה של מיקרוסופט צריכה להיות מדודה וזהירה, בניגוד לאופטימיות האגרסיבית של חלק מהמתחרות.


מוסטפה סולימאן מיקרוסופטמוסטפה סולימאן מיקרוסופט

ראש הבינה המלאכותית במיקרוסופט: "תפסיקו לחפש מודעות ברובוטים"

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית של מיקרוסופט, טוען שרק יצורים ביולוגיים מסוגלים לתודעה אמיתית וכל ניסיון לחקות אותה הוא טעות. לדבריו, מטרת הבינה המלאכותית היא לסייע לבני אדם, לא להחליף אותם. החברה מאמצת קו זהיר ומתרחקת מהמרוץ ליצירת מערכות "חושבות" שמובילות חברות כמו מטא ו־OpenAI

אדיר בן עמי |

מוסטפא סולימן, ראש חטיבת הבינה המלאכותית במיקרוסופט, ביקר השבוע את מה שהוא רואה כמגמה בעייתית בתעשייה. לדבריו, מפתחים וחוקרים צריכים להפסיק לנסות לבנות מערכות שנראות כבעלות מודעות. סולימן טוען שרק יצורים ביולוגיים מסוגלים למודעות אמיתית, וכל ניסיון ליצור "מודעות מלאכותית" הוא בזבוז של זמן ומשאבים.


סולימן, שהצטרף למיקרוסופט השנה לאחר שהחברה רכשה את הסטארטאפ שהקים תמורת 650 מיליון דולר, אמר בראיון ל־CNBC במהלך כנס AfroTech ביוסטון כי העולם שואל את השאלה הלא נכונה. "כשאתה שואל שאלה לא נכונה, אתה מקבל תשובה לא נכונה", הסביר. מבחינתו, הדיון הזה אינו רק פילוסופי, הוא נוגע ישירות לאופן שבו מושקעים מיליארדים בפיתוח טכנולוגיות בינה מלאכותית.

מודעות יכולה להתקיים רק במוח ביולוגי

בזמן שמטא ואילון מאסק מפתחים בוטים שמדמים קשרים אישיים, ו־OpenAI של סם אלטמן שואפת לפתח בינה כללית הדומה ליכולות אנושיות, סולימן משרטט גבול. מיקרוסופט לא תיכנס לשוק הבוטים הרגשיים, ולא תנסה ליצור מערכות שמדמות תודעה אנושית. הטיעון שלו נשען על תיאוריה פילוסופית המכונה "נטורליזם ביולוגי", שגיבש הפילוסוף ג'ון סירל. לפי התיאוריה, מודעות יכולה להתקיים רק במוח ביולוגי. סולימן מסביר שהסיבה שאנו מעניקים זכויות לבני אדם היא היכולת שלהם לחוות כאב ולהימנע ממנו. לדבריו, למודלים של בינה מלאכותית אין תודעה, רגשות או חוויה סובייקטיבית, הם רק מדמים תגובה.


ההבחנה הזו, לדבריו, קריטית לעתיד התחום. כשמערכת בינה מלאכותית "חווה" כאב, אין כאן רגש אמיתי או סבל. מדובר בסימולציה שמדמה חוויה, אך לא בחוויה עצמה. סולימן מדגיש שהמטרה של הטכנולוגיה היא לסייע לבני אדם, לא להחליף אותם. לדבריו, זה אולי נשמע עקרוני בלבד, אך יש לכך השלכות אתיות ועסקיות משמעותיות. הגישה הזו באה לידי ביטוי במוצרים החדשים של מיקרוסופט. החברה הכריזה השבוע על יכולות חדשות לשירות Copilot, בהן בוט לשיחות קבוצתיות ודמות אינטראקטיבית בשם מיקו. כל הפיצ'רים מתוכננים כך שידגישו את זהותם כיישומי בינה מלאכותית, לא כיישויות עצמאיות. המיקוד הוא ביצירת כלים שעובדים עבור המשתמש, לא במקומו.

"אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה״

סולימן הציג גם תכונה חדשה בשם "Real Talk" - מצב שיחה שבו הקופיילוט מאתגר את המשתמש במקום להסכים איתו. הוא סיפר שבמהלך הניסויים הכלי "תקף" אותו בבדיחות כשכינה אותו "אוסף של סתירות", על כך שהוא מזהיר מפני הסכנות של בינה מלאכותית בזמן שהוא עצמו מוביל את הפיתוח שלה. לדבריו, זהו לב הסתירה של התחום כולו - טכנולוגיה שמרתקת ומאיימת בעת ובעונה אחת. "אם אתה לא מפחד ממנה, אתה כנראה לא מבין אותה", אמר. "הפחד הוא בריא. הוא מחייב אותנו להיזהר". סולימן סבור שהגישה של מיקרוסופט צריכה להיות מדודה וזהירה, בניגוד לאופטימיות האגרסיבית של חלק מהמתחרות.