לדבר עם מודל AI בטלפון בלי חיבור לאינטרנט - האפליקציה החדשה של גוגל
אבל גם כאן יש יתרונות ויש חסרונות - מה כוללת
האפליקציה החדשה, מה ההבדל בין מודלים מקומיים למבוססי ענן, ואיך גוגל מנסה להחזיר לעצמה את ההובלה בתחום ה-AI - גם עם האפליקציה החדשה, וגם עם השינויים במנוע החיפוש שלה?
האפליקציה החדשה: AI על המכשיר, לא בענן
Google AI Edge
Gallery זמינה בשלב זה באנדרואיד, ובקרוב גם למשתמשי iOS. דרכה ניתן להוריד מודלים פתוחים ממאגר Hugging Face - כולל Gemma 3n של גוגל - ולהשתמש בהם למגוון רחב של משימות: החל ביצירת תמונות, דרך שכתוב טקסטים ועד מענה על שאלות או קידוד. הכול מתבצע על הטלפון עצמו,
תוך שימוש בכוח העיבוד של המכשיר, וללא צורך באינטרנט.
- מטריקס חתמה על חוזה AI בעשרות מיליוני דולרים עם מדינה זרה
- נביוס מזנקת 45% בעקבות הסכם עם מיקרוסופט בהיקף 17.4 מיליארד דולר
- המלצת המערכת: כל הכותרות 24/7
האפליקציה כוללת גם את Prompt Lab, מעין מעבדה לתרחישים מוכנים מראש, עם פרומטים מותאמים מראש למשימות נפוצות. המשתמשים יכולים לבחור תבנית, לכוון את הפרמטרים הרצויים - ולהפעיל את
המודל בלחיצה. כל זה פועל תחת רישיון קוד פתוח (Apache 2.0), כך שגם מפתחים פרטיים וגם חברות יוכלו להשתמש בטכנולוגיה בלי מגבלות.
הרצת מודל בענן מול הרצה על המכשיר - היתרונות והחסרונות
היתרון המרכזי של Edge Gallery ברור: הפרטיות
נשמרת. כשאין צורך לשלוח את המידע החוצה, הוא גם לא נחשף. זו בשורה גדולה עבור אנשי מקצוע, סטודנטים, עורכי דין, רופאים וכל מי שעובד עם מידע רגיש. בנוסף, השימוש אינו תלוי בקליטה סלולרית או ב-WiFi, כך שניתן להריץ מודלים גם באמצע טיסה, בטיול שטח או באזורים עם תשתית
חלשה.
בנוסף, הביצועים מיידיים - אין תהליך של "העלאה-חישוב-הורדה", אלא תגובה כמעט בזמן אמת, במיוחד במכשירים עם חומרה מתקדמת. גוגל אמנם מזהירה כי הביצועים תלויים ביכולות של המכשיר, כשטלפון חלש יתקשה להריץ מודלים כבדיפ, אבל ככל שהחומרה
משתפרת, הגבולות מיטשטשים.
- האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת
- הנחת הענק חושפת: מהפכת ה-AI עומדת להוזיל דרמטית את שירותי התוכנה
- תוכן שיווקי צברתם הון? מה נכון לעשות איתו?
- אייפון 17 - מצלמה ברמה גבוהה, טעינה משופרת; ומה המחיר
מצד שני, המודלים המקומיים לרוב יהיו פחות עוצמתיים ממודלי הענן. לא מדובר כאן ב-GPT-4 מלא או בגרסה הכבדה של ג'מיני - אלא במודלים קטנים יותר שנועדו לפעול באופן יעיל על מכשיר אישי. מי שמחפש תשובות מתוחכמות יותר, תשובות מרובות שלבים או ביצועים מורכבים - ייתכן שעדיין יעדיף את המודלים בענן.
גוגל רוצה להגיע לקדמת הבמה בתחום הבינה המלאכותית
במקביל להשקה של Edge Gallery, גוגל ביצעה מהלך אסטרטגי גדול לא פחות -שילוב של מודל הבינה המלאכותית
Gemini בתוך מנוע החיפוש עצמו. מדובר בפיצ'ר חדש בשם AI Mode. במקום רשימת קישורים - המשתמש מקבל תשובה ישירה, מפורטת ולעיתים אפילו ויזואלית. Gemini מבצע סיכום של התוצאות, משווה מחירים, בונה מסלולי טיול, ואפילו - כמו שהודגם בכנס המפתחים - מזמין חופשה שלמה דרך
האינטרנט תוך דקות, בלי שהמשתמש נאלץ לקפוץ בין אתרים.
ה-AI של גוגל כבר זמין ל-1.5 מיליארד משתמשים בחודש, והוא מתעדכן כל הזמן על סמך מידע אישי - כמו היסטוריית חיפושים, נתונים מג'ימייל, ופעולות קודמות. כל זה מייצר ממשק חיפוש שמתאים
את עצמו לשאילתה של המשתמש - לא רק מציג תוצאות, אלא פותר בעיות.
לא כולם מרוצים: החששות של בעלי האתרים והפרסומאים
למרות היתרונות, המודל החדש מעורר לא מעט חרדה בעולם הדיגיטל. תצוגות ה-AI, שמציגות תשובות ישירות לשאלות מורכבות,
עלולות להפחית משמעותית את כמות הכניסות לאתרים חיצוניים. למה לעבור לאתר תיירות אם גוגל כבר סידרה לך את המסלול, המלונות והמחירים?
גם תחום הפרסום הממומן (PPC), שמכניס לגוגל כ-200 מיליארד דולר בשנה, בסכנה. אם משתמשים מקבלים את המידע
שלהם כבר בתוך ה-AI Mode - למה ללחוץ על מודעות? גוגל צפויה לעבור למודלים פרסומיים חדשים, כמו שילוב תוכן ממומן בתוך תצוגות ה-AI עצמן - למשל המלצה ממומנת על מותג או השוואת מחירים שמקדמת מוצר מסוים. אבל זה מעלה שאלות של שקיפות ואמינות, האם התשובה שה-AI נותן היא
באמת הכי טובה, או פשוט זו שמישהו שילם עליה?
עם זאת, לא כל התשובות של ה-AI מוצלחות. אחת מהן, למשל, הציעה למשתמש להוסיף דבק לגבינה צהובה כדי להצמיד אותה לפיצה - בעקבות קריאה לא נכונה של פוסט סאטירי. המקרה הפך ויראלי, וגוגל הודתה שהמודל
התקשה להבדיל בין בדיחה לעובדה. עם זאת, החברה התחייבה לעדכן את המודלים, והתופעות האלה, המכונות "הזיות", הולכות ופוחתות. במקביל, נתוני השימוש חושפים עלייה של 20% בשימוש בתצוגות AI במנוע החיפוש - מה שמצביע על כך שהמשתמשים מאמצים את הכלי, למרות הקשיים.

האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת
חוקרי סייבר בדרום קוריאה חשפו כי האקרים מצפון קוריאה ניצלו את ChatGPT להפקת מסמכים מזויפים לצורכי פישינג והציגו באיזו קלות ניתן לעקוף מנגנוני הגנה בבינה מלאכותית ולבצע מתקפות ריגול דיגיטליות
חוקרי אבטחת מידע דרום קוריאניים חשפו השבוע מקרה בו קבוצת האקרים צפון קוריאנית השתמשה ב-ChatGPT ליצירת תעודת זהות צבאית מזויפת. המסמך המזויף שימש במסגרת התקפת סייבר שכוונה נגד יעדים בדרום קוריאה. המקרה מצטרף למגמה גוברת של שימוש בכלי בינה מלאכותית לפעילות ריגול.
קבוצת האקרים הידועה בשם "קימסוקי" יצרה מסמך מזויף של תעודת זהות צבאית דרום קוריאנית. המסמך היה אמור להפוך הודעת פישינג לאמינה יותר. ההודעה הכילה קישור לתוכנה זדונית המסוגלת לחלץ מידע ממחשבי הקורבנות. זו אינה הפעם הראשונה שצפון קוריאה עושה שימוש בבינה מלאכותית למטרות כאלה. באוגוסט דיווחה חברת אנתרופיק כי האקרים צפון־קוריאנים השתמשו בכלי Claude Code כדי להתחזות לעובדי טכנולוגיה ולהתקבל לעבודה בחברות אמריקניות, שם ביצעו משימות טכניות לאחר שהתקבלו.
OpenAI מסרה בפברואר כי חסמה חשבונות חשודים של גורמים מצפון קוריאה. לפי החברה, המשתמשים יצרו קורות חיים ומכתבי פנייה מזויפים כדי לגייס עובדים למיזמים שלהם. במקרה האחרון כוונו ההתקפות לעיתונאים, חוקרים ופעילי זכויות אדם העוסקים בנושאי צפון קוריאה. ייתכן שהנפגעים נבחרו בשל עיסוקם בפרסום מידע על המשטר.
הממשל האמריקני טוען כי צפון קוריאה משתמשת בהתקפות סייבר, בגניבת מטבעות דיגיטליים ובשירותי קבלנות טכנולוגית כדי לאסוף מידע ולממן את תוכניותיה, לרבות פיתוח נשק גרעיני, ובכך לעקוף סנקציות.
- דרך ה-SharePoint: האקרים סינים חדרו כמעט עד לתכנית הגרעין האמריקאית
- האם האקר AI טוב יותר מהאקר אנושי? על הסטארט אפ שגייס 75 מיליון דולר
- המלצת המערכת: כל הכותרות 24/7
במהלך המחקר, החוקרים ביצעו ניסוי כדי להבין איך נוצר המסמך המזויף. כאשר ביקשו מ-ChatGPT ליצור תעודת זהות ממשלתית - פעולה הנחשבת בלתי חוקית בדרום קוריאה - המערכת סירבה לבקשה. אולם כשהם שינו מעט את אופן ניסוח הבקשה, המערכת הסכימה ליצור את המסמך הרצוי. הממצא מעלה חששות לגבי הקלות שבה ניתן לעקוף מנגנוני הבטיחות של כלי בינה מלאכותית ולנצל אותם למטרות זדוניות. זה מדגים פער בין המדיניות המוצהרת של חברות הטכנולוגיה לבין היכולת הפרקטית לאכוף אותה.

האקרים מצפון קוריאה השתמשו ב-ChatGPT לייצור תעודת זהות מזויפת
חוקרי סייבר בדרום קוריאה חשפו כי האקרים מצפון קוריאה ניצלו את ChatGPT להפקת מסמכים מזויפים לצורכי פישינג והציגו באיזו קלות ניתן לעקוף מנגנוני הגנה בבינה מלאכותית ולבצע מתקפות ריגול דיגיטליות
חוקרי אבטחת מידע דרום קוריאניים חשפו השבוע מקרה בו קבוצת האקרים צפון קוריאנית השתמשה ב-ChatGPT ליצירת תעודת זהות צבאית מזויפת. המסמך המזויף שימש במסגרת התקפת סייבר שכוונה נגד יעדים בדרום קוריאה. המקרה מצטרף למגמה גוברת של שימוש בכלי בינה מלאכותית לפעילות ריגול.
קבוצת האקרים הידועה בשם "קימסוקי" יצרה מסמך מזויף של תעודת זהות צבאית דרום קוריאנית. המסמך היה אמור להפוך הודעת פישינג לאמינה יותר. ההודעה הכילה קישור לתוכנה זדונית המסוגלת לחלץ מידע ממחשבי הקורבנות. זו אינה הפעם הראשונה שצפון קוריאה עושה שימוש בבינה מלאכותית למטרות כאלה. באוגוסט דיווחה חברת אנתרופיק כי האקרים צפון־קוריאנים השתמשו בכלי Claude Code כדי להתחזות לעובדי טכנולוגיה ולהתקבל לעבודה בחברות אמריקניות, שם ביצעו משימות טכניות לאחר שהתקבלו.
OpenAI מסרה בפברואר כי חסמה חשבונות חשודים של גורמים מצפון קוריאה. לפי החברה, המשתמשים יצרו קורות חיים ומכתבי פנייה מזויפים כדי לגייס עובדים למיזמים שלהם. במקרה האחרון כוונו ההתקפות לעיתונאים, חוקרים ופעילי זכויות אדם העוסקים בנושאי צפון קוריאה. ייתכן שהנפגעים נבחרו בשל עיסוקם בפרסום מידע על המשטר.
הממשל האמריקני טוען כי צפון קוריאה משתמשת בהתקפות סייבר, בגניבת מטבעות דיגיטליים ובשירותי קבלנות טכנולוגית כדי לאסוף מידע ולממן את תוכניותיה, לרבות פיתוח נשק גרעיני, ובכך לעקוף סנקציות.
- דרך ה-SharePoint: האקרים סינים חדרו כמעט עד לתכנית הגרעין האמריקאית
- האם האקר AI טוב יותר מהאקר אנושי? על הסטארט אפ שגייס 75 מיליון דולר
- המלצת המערכת: כל הכותרות 24/7
במהלך המחקר, החוקרים ביצעו ניסוי כדי להבין איך נוצר המסמך המזויף. כאשר ביקשו מ-ChatGPT ליצור תעודת זהות ממשלתית - פעולה הנחשבת בלתי חוקית בדרום קוריאה - המערכת סירבה לבקשה. אולם כשהם שינו מעט את אופן ניסוח הבקשה, המערכת הסכימה ליצור את המסמך הרצוי. הממצא מעלה חששות לגבי הקלות שבה ניתן לעקוף מנגנוני הבטיחות של כלי בינה מלאכותית ולנצל אותם למטרות זדוניות. זה מדגים פער בין המדיניות המוצהרת של חברות הטכנולוגיה לבין היכולת הפרקטית לאכוף אותה.