טלפון בינה מלאכותית; קרדיט: רוי שיינמן, ChatGPTטלפון בינה מלאכותית; קרדיט: רוי שיינמן, ChatGPT

לדבר עם מודל AI בטלפון בלי חיבור לאינטרנט - האפליקציה החדשה של גוגל

האם צריך אינטרנט בשביל לדבר AI? גוגל משיקה אפליקציה חדשה שמריצה מודלים מתקדמים ישירות מהטלפון - בלי ענן, בלי קליטה ובלי לשתף מידע אישי; האם זה העתיד של הבינה המלאכותית, או שהמכשירים לא יעמדו בעומס החישובי?
רוי שיינמן |
להריץ מודלים של בינה מלאכותית ישירות מהטלפון, בלי חיבור לאינטרנט ובלי שרתים בענן, היה דבר אפשרי אך לא נפוץ כל כך - עד לאחרונה. גוגל  Alphabet 0.18%   השיקה בשקט אפליקציה חדשה בשם Google AI Edge Gallery שמאפשרת בדיוק את זה: לבחור מודל, להוריד אותו לטלפון, ולהשתמש בו - גם באמצע טיסה, במקום בלי קליטה, או פשוט בלי לשלוח את הנתונים האישיים שלך לאף אחד.


עד היום התרגלנו לכך שמודלים חזקים - כמו ChatGPT או ג'מיני של גוגל - פועלים בענן. הם דורשים חיבור רציף לרשת, שולחים את השאלה לשרתים רחוקים ומחזירים את התשובה. זה חזק, אבל לא תמיד זמין, לא תמיד מהיר, ובעיקר, לא תמיד בטוח מבחינת פרטיות. כשמודל רץ על הטלפון עצמו (on-device), הכול קורה באופן מיידי, מאובטח ואישי.


אבל גם כאן יש יתרונות ויש חסרונות - מה כוללת האפליקציה החדשה, מה ההבדל בין מודלים מקומיים למבוססי ענן, ואיך גוגל מנסה להחזיר לעצמה את ההובלה בתחום ה-AI - גם עם האפליקציה החדשה, וגם עם השינויים במנוע החיפוש שלה?


האפליקציה החדשה: AI על המכשיר, לא בענן

Google AI Edge Gallery זמינה בשלב זה באנדרואיד, ובקרוב גם למשתמשי iOS. דרכה ניתן להוריד מודלים פתוחים ממאגר Hugging Face - כולל Gemma 3n של גוגל - ולהשתמש בהם למגוון רחב של משימות: החל ביצירת תמונות, דרך שכתוב טקסטים ועד מענה על שאלות או קידוד. הכול מתבצע על הטלפון עצמו, תוך שימוש בכוח העיבוד של המכשיר, וללא צורך באינטרנט.


האפליקציה כוללת גם את Prompt Lab, מעין מעבדה לתרחישים מוכנים מראש, עם פרומטים מותאמים מראש למשימות נפוצות. המשתמשים יכולים לבחור תבנית, לכוון את הפרמטרים הרצויים - ולהפעיל את המודל בלחיצה. כל זה פועל תחת רישיון קוד פתוח (Apache 2.0), כך שגם מפתחים פרטיים וגם חברות יוכלו להשתמש בטכנולוגיה בלי מגבלות.


הרצת מודל בענן מול הרצה על המכשיר - היתרונות והחסרונות

היתרון המרכזי של Edge Gallery ברור: הפרטיות נשמרת. כשאין צורך לשלוח את המידע החוצה, הוא גם לא נחשף. זו בשורה גדולה עבור אנשי מקצוע, סטודנטים, עורכי דין, רופאים וכל מי שעובד עם מידע רגיש. בנוסף, השימוש אינו תלוי בקליטה סלולרית או ב-WiFi, כך שניתן להריץ מודלים גם באמצע טיסה, בטיול שטח או באזורים עם תשתית חלשה.


בנוסף, הביצועים מיידיים - אין תהליך של "העלאה-חישוב-הורדה", אלא תגובה כמעט בזמן אמת, במיוחד במכשירים עם חומרה מתקדמת. גוגל אמנם מזהירה כי הביצועים תלויים ביכולות של המכשיר, כשטלפון חלש יתקשה להריץ מודלים כבדיפ, אבל ככל שהחומרה משתפרת, הגבולות מיטשטשים.

קיראו עוד ב"BizTech"


מצד שני, המודלים המקומיים לרוב יהיו פחות עוצמתיים ממודלי הענן. לא מדובר כאן ב-GPT-4 מלא או בגרסה הכבדה של ג'מיני - אלא במודלים קטנים יותר שנועדו לפעול באופן יעיל על מכשיר אישי. מי שמחפש תשובות מתוחכמות יותר, תשובות מרובות שלבים או ביצועים מורכבים - ייתכן שעדיין יעדיף את המודלים בענן.


גוגל רוצה להגיע לקדמת הבמה בתחום הבינה המלאכותית

במקביל להשקה של Edge Gallery, גוגל ביצעה מהלך אסטרטגי גדול לא פחות -שילוב של מודל הבינה המלאכותית Gemini בתוך מנוע החיפוש עצמו. מדובר בפיצ'ר חדש בשם AI Mode. במקום רשימת קישורים - המשתמש מקבל תשובה ישירה, מפורטת ולעיתים אפילו ויזואלית. Gemini מבצע סיכום של התוצאות, משווה מחירים, בונה מסלולי טיול, ואפילו - כמו שהודגם בכנס המפתחים - מזמין חופשה שלמה דרך האינטרנט תוך דקות, בלי שהמשתמש נאלץ לקפוץ בין אתרים.


ה-AI של גוגל כבר זמין ל-1.5 מיליארד משתמשים בחודש, והוא מתעדכן כל הזמן על סמך מידע אישי - כמו היסטוריית חיפושים, נתונים מג'ימייל, ופעולות קודמות. כל זה מייצר ממשק חיפוש שמתאים את עצמו לשאילתה של המשתמש - לא רק מציג תוצאות, אלא פותר בעיות.


לא כולם מרוצים: החששות של בעלי האתרים והפרסומאים

למרות היתרונות, המודל החדש מעורר לא מעט חרדה בעולם הדיגיטל. תצוגות ה-AI, שמציגות תשובות ישירות לשאלות מורכבות, עלולות להפחית משמעותית את כמות הכניסות לאתרים חיצוניים. למה לעבור לאתר תיירות אם גוגל כבר סידרה לך את המסלול, המלונות והמחירים?


גם תחום הפרסום הממומן (PPC), שמכניס לגוגל כ-200 מיליארד דולר בשנה, בסכנה. אם משתמשים מקבלים את המידע שלהם כבר בתוך ה-AI Mode - למה ללחוץ על מודעות? גוגל צפויה לעבור למודלים פרסומיים חדשים, כמו שילוב תוכן ממומן בתוך תצוגות ה-AI עצמן - למשל המלצה ממומנת על מותג או השוואת מחירים שמקדמת מוצר מסוים. אבל זה מעלה שאלות של שקיפות ואמינות, האם התשובה שה-AI נותן היא באמת הכי טובה, או פשוט זו שמישהו שילם עליה?


עם זאת, לא כל התשובות של ה-AI מוצלחות. אחת מהן, למשל, הציעה למשתמש להוסיף דבק לגבינה צהובה כדי להצמיד אותה לפיצה - בעקבות קריאה לא נכונה של פוסט סאטירי. המקרה הפך ויראלי, וגוגל הודתה שהמודל התקשה להבדיל בין בדיחה לעובדה. עם זאת, החברה התחייבה לעדכן את המודלים, והתופעות האלה, המכונות "הזיות", הולכות ופוחתות. במקביל, נתוני השימוש חושפים עלייה של 20% בשימוש בתצוגות AI במנוע החיפוש - מה שמצביע על כך שהמשתמשים מאמצים את הכלי, למרות הקשיים.

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
האקר סייבר האקרים פריצה מחשבים הייטק אבטחת מידע
צילום: Istock

האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת

חוקרי סייבר בדרום קוריאה חשפו כי האקרים מצפון קוריאה ניצלו את ChatGPT להפקת מסמכים מזויפים לצורכי פישינג והציגו באיזו קלות ניתן לעקוף מנגנוני הגנה בבינה מלאכותית ולבצע מתקפות ריגול דיגיטליות

אדיר בן עמי |

חוקרי אבטחת מידע דרום קוריאניים חשפו השבוע מקרה בו קבוצת האקרים צפון קוריאנית השתמשה ב-ChatGPT ליצירת תעודת זהות צבאית מזויפת. המסמך המזויף שימש במסגרת התקפת סייבר שכוונה נגד יעדים בדרום קוריאה. המקרה מצטרף למגמה גוברת של שימוש בכלי בינה מלאכותית לפעילות ריגול.


קבוצת האקרים הידועה בשם "קימסוקי" יצרה מסמך מזויף של תעודת זהות צבאית דרום קוריאנית. המסמך היה אמור להפוך הודעת פישינג לאמינה יותר. ההודעה הכילה קישור לתוכנה זדונית המסוגלת לחלץ מידע ממחשבי הקורבנות. זו אינה הפעם הראשונה שצפון קוריאה עושה שימוש בבינה מלאכותית למטרות כאלה. באוגוסט דיווחה חברת אנתרופיק כי האקרים צפון־קוריאנים השתמשו בכלי Claude Code כדי להתחזות לעובדי טכנולוגיה ולהתקבל לעבודה בחברות אמריקניות, שם ביצעו משימות טכניות לאחר שהתקבלו.


OpenAI מסרה בפברואר כי חסמה חשבונות חשודים של גורמים מצפון קוריאה. לפי החברה, המשתמשים יצרו קורות חיים ומכתבי פנייה מזויפים כדי לגייס עובדים למיזמים שלהם. במקרה האחרון כוונו ההתקפות לעיתונאים, חוקרים ופעילי זכויות אדם העוסקים בנושאי צפון קוריאה. ייתכן שהנפגעים נבחרו בשל עיסוקם בפרסום מידע על המשטר.


הממשל האמריקני טוען כי צפון קוריאה משתמשת בהתקפות סייבר, בגניבת מטבעות דיגיטליים ובשירותי קבלנות טכנולוגית כדי לאסוף מידע ולממן את תוכניותיה, לרבות פיתוח נשק גרעיני, ובכך לעקוף סנקציות.


במהלך המחקר, החוקרים ביצעו ניסוי כדי להבין איך נוצר המסמך המזויף. כאשר ביקשו מ-ChatGPT ליצור תעודת זהות ממשלתית - פעולה הנחשבת בלתי חוקית בדרום קוריאה - המערכת סירבה לבקשה. אולם כשהם שינו מעט את אופן ניסוח הבקשה, המערכת הסכימה ליצור את המסמך הרצוי. הממצא מעלה חששות לגבי הקלות שבה ניתן לעקוף מנגנוני הבטיחות של כלי בינה מלאכותית ולנצל אותם למטרות זדוניות. זה מדגים פער בין המדיניות המוצהרת של חברות הטכנולוגיה לבין היכולת הפרקטית לאכוף אותה.

האקר סייבר האקרים פריצה מחשבים הייטק אבטחת מידע
צילום: Istock

האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת

חוקרי סייבר בדרום קוריאה חשפו כי האקרים מצפון קוריאה ניצלו את ChatGPT להפקת מסמכים מזויפים לצורכי פישינג והציגו באיזו קלות ניתן לעקוף מנגנוני הגנה בבינה מלאכותית ולבצע מתקפות ריגול דיגיטליות

אדיר בן עמי |

חוקרי אבטחת מידע דרום קוריאניים חשפו השבוע מקרה בו קבוצת האקרים צפון קוריאנית השתמשה ב-ChatGPT ליצירת תעודת זהות צבאית מזויפת. המסמך המזויף שימש במסגרת התקפת סייבר שכוונה נגד יעדים בדרום קוריאה. המקרה מצטרף למגמה גוברת של שימוש בכלי בינה מלאכותית לפעילות ריגול.


קבוצת האקרים הידועה בשם "קימסוקי" יצרה מסמך מזויף של תעודת זהות צבאית דרום קוריאנית. המסמך היה אמור להפוך הודעת פישינג לאמינה יותר. ההודעה הכילה קישור לתוכנה זדונית המסוגלת לחלץ מידע ממחשבי הקורבנות. זו אינה הפעם הראשונה שצפון קוריאה עושה שימוש בבינה מלאכותית למטרות כאלה. באוגוסט דיווחה חברת אנתרופיק כי האקרים צפון־קוריאנים השתמשו בכלי Claude Code כדי להתחזות לעובדי טכנולוגיה ולהתקבל לעבודה בחברות אמריקניות, שם ביצעו משימות טכניות לאחר שהתקבלו.


OpenAI מסרה בפברואר כי חסמה חשבונות חשודים של גורמים מצפון קוריאה. לפי החברה, המשתמשים יצרו קורות חיים ומכתבי פנייה מזויפים כדי לגייס עובדים למיזמים שלהם. במקרה האחרון כוונו ההתקפות לעיתונאים, חוקרים ופעילי זכויות אדם העוסקים בנושאי צפון קוריאה. ייתכן שהנפגעים נבחרו בשל עיסוקם בפרסום מידע על המשטר.


הממשל האמריקני טוען כי צפון קוריאה משתמשת בהתקפות סייבר, בגניבת מטבעות דיגיטליים ובשירותי קבלנות טכנולוגית כדי לאסוף מידע ולממן את תוכניותיה, לרבות פיתוח נשק גרעיני, ובכך לעקוף סנקציות.


במהלך המחקר, החוקרים ביצעו ניסוי כדי להבין איך נוצר המסמך המזויף. כאשר ביקשו מ-ChatGPT ליצור תעודת זהות ממשלתית - פעולה הנחשבת בלתי חוקית בדרום קוריאה - המערכת סירבה לבקשה. אולם כשהם שינו מעט את אופן ניסוח הבקשה, המערכת הסכימה ליצור את המסמך הרצוי. הממצא מעלה חששות לגבי הקלות שבה ניתן לעקוף מנגנוני הבטיחות של כלי בינה מלאכותית ולנצל אותם למטרות זדוניות. זה מדגים פער בין המדיניות המוצהרת של חברות הטכנולוגיה לבין היכולת הפרקטית לאכוף אותה.