הסוכן החדש של OpenAI עושה הרבה - אך עלול להיות זדוני
שירות Operator שהשיקה החברה בינואר באופן מוגבל בארה"ב, נפתח מאז לעוד שווקים, ומסוגל לעזור במגוון פעולות יומיומיות למשתמשים. ואולם בידיים הלא נכונות הוא עלול לשמש לביצוע הונאות כמו פישינג, והחברה צריכה להוכיח שלא מדובר בפרצה גדולה מדי
בינואר האחרון חשפה OpenAI את Operator - סוכן בינה מלאכותית עצמאי שמסוגל לבצע משימות באינטרנט באופן אוטונומי, ללא צורך במעורבות אנושית מתמשכת. המערכת מבוססת על מודל חדש בשם CUA (Computer-Using Agent), שמשלב יכולות ראייה של GPT-4o עם אינטראקציה גרפית, ומאפשרת ל-Operator לנווט באתרים, למלא טפסים ולבצע פעולות באופן עצמאי.
Operator מתפקד כעוזר אישי דיגיטלי, שמסוגל לבצע משימות כמו הזמנת טיסות ובתי מלון, קניות באתרים כמו Instacart ו-Etsy, הזמנת מוניות דרך אובר, הזמנת שולחנות במסעדות באמצעות OpenTable, ומילוי טפסים והגשת דו"חות של הוצאות. המערכת פועלת באמצעות דפדפן וירטואלי, שבו ניתן לצפות בפעולותיה בזמן אמת. במקרים שדורשים הזנת פרטי תשלום או סיסמאות, Operator מבקש מהמשתמש להתערב, כדי להבטיח אבטחה ודיוק.
היתרון המרכזי של Operator הוא היכולת לחסוך זמן על ידי אוטומציה של משימות יומיומיות, עם יכולת לבצע כמה משימות במקביל והתאמה אישית לצרכים שונים. עם זאת, המערכת עשויה להתמודד עם אתגרים כשהיא נתקלת באתרים מורכבים או לא סטנדרטיים, ולעתים דורשת התערבות אנושית במקרים מסוימים. בנוסף, הזמינות של השירות מוגבלת מבחינה גיאוגרפית בשלב זה. Operator היה זמין בהתחלה רק למנויי ChatGPT Pro בארה"ב ובבריטניה, בעלות של 200 דולר לחודש, אך לפני כחודש הזמינות שלו הורחבה למדינות נוספות, בהן הודו ואוסטרליה. OpenAI מתכננת להרחיב את הזמינות של השירות גם למנויי Plus, Team ו-Enterprise בהמשך.
גם לגוגל ואנתרופיק יש מוצרים דומים
כמה חברות מציעות שירותים דומים: גוגל עם Project Mariner; אנתרופיק עם כלי אוטומציה לדפדפן; אמזון עם Nova, סוכן AI המתמקד בקניות מקוונות; ו-Manus, סוכן AI סיני שמסוגל לבצע משימות מורכבות באופן עצמאי. בנוסף, קיימות חלופות של קוד פתוח כמו AutoGPT ו-Open Operator, שמציעות יכולות דומות.
- אני והחבר'ה וה-AI: ה-ChatGPT מתרחב לשיחות קבוצתיות
- לארי סאמרס פורש מדירקטוריון OpenAI בעקבות חשיפת תכתובות עם ג'פרי אפשטיין
- המלצת המערכת: כל הכותרות 24/7
OpenAI מתכננת להשיק API ל-Operator, שיאפשר למפתחים ולחברות ליצור פתרונות אוטומציה שמותאמים אישית. החברה רואה ב-Operator צעד משמעותי לקראת עתיד שבו סוכני AI ישולבו בעבודה היומיומית, וישפיעו על תחומים כמו שירות לקוחות, מכירות ופיננסים. למרות האתגרים הקיימים, Operator מציג פוטנציאל לשנות את הדרך שבה אנו מבצעים משימות באינטרנט, ולהפוך את האינטראקציה הדיגיטלית ליעילה ואוטומטית עוד יותר.
לפי דיווחים שפורסמו בכמה מקומות, כבר בוצעו ניסויים שמטרתם להדגים כיצד ניתן לנצל את Operator לרעה, אם כי מדובר בשלב זה בעיקר בהוכחות היתכנות ולא במתקפות בקנה מידה רחב. כך למשל, חוקרי אבטחת מידע הצליחו להנחות את Operator לבצע פעולות לא מכוונות כמו לחיצה על קישורים זדוניים, שליחה של מידע רגיש לאתרים חשודים, או אפילו התחלה של תהליך רכישה מזויף - וכל זאת בלי שהמערכת תזהה בזמן אמת שהמשימה עצמה אינה לגיטימית. במקרים מסוימים, סוכנים כמו Operator התקשו לזהות ניסיונות התחזות, בייחוד כשהממשק הגרפי היה בנוי כך שייראה אמין.
OpenAI עצמה הודתה בקיומן של חולשות כאלה, והצהירה כי מדובר בשלב ניסיוני שבו החברה לומדת את מגבלות הטכנולוגיה ומטמיעה שכבות הגנה נוספות. החברה גם פועלת בשיתוף עם מומחי סייבר כדי לזהות מראש תרחישים פוטנציאליים של שימוש לרעה, ומיישמת מסננים, ניטור בזמן אמת ובקשות לאישור מפורש מהמשתמש כשמזוהים תרחישים חריגים. כמו בכל טכנולוגיה מהפכנית, יש פער בין היכולות לבין האתיקה והבקרה הדרושים, וההתמודדות עם פגיעויות ושימוש לרעה תמשיך ככל ש-Operator ייכנס לשימוש רחב יותר ויותר.
- 350 מיליארד דולר ב-4 שנים: איך אנתרופיק הביסה את ChatGPT והפכה לענקית ה-AI השלישית בעולם
- סיסקו ו-IBM בונות את האינטרנט הקוונטי: מחשבים שמדברים ביניהם תוך 5 שנים
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- 350 מיליארד דולר ב-4 שנים: איך אנתרופיק הביסה את ChatGPT...
בקרוב גם ב-WhatsApp?
האם Operator מבוסס על אותו המנוע של ChatGPT או שיש כאן טכנולוגיה שונה?
Operator מבוסס על מודל ה-GPT-4o החדש של OpenAI, אך בשונה מגרסאות ChatGPT הרגילות, הוא כולל שילוב של ראייה ממוחשבת ויכולת ניווט בזמן אמת בסביבות גרפיות כמו דפדפנים. כלומר, במקום רק להתכתב אתו, הוא גם ממש "רואה" את הממשק שעליו הוא פועל - כפתורים, טפסים, שדות טקסט - ויודע לתפעל אותם בדומה לאדם.
האם ניתן לתת ל-Operator גישה למייל או למסמכים אישיים כדי שיבצע משימות מתקדמות יותר?
נכון להיום, Operator לא מקבל גישה ישירה לתיבת הדואר האלקטרוני של המשתמש או למסמכים פרטיים, אלא אם המשתמש מעניק לו גישה מפורשת כחלק מתהליך המשימה (כך לדוגמה, במילוי טופס שדורש מידע מהמייל). OpenAI מדגישה את נושא הפרטיות והביטחון, ולכן כל גישה כזו דורשת אישור אקטיבי ומודע של המשתמש.
מה לגבי התממשקות לאפליקציות צד שלישי כמו WhatsApp או סלאק?
בשלב הזה Operator מתמקד בעיקר באינטראקציה עם דפדפנים ואתרים באינטרנט הפתוח. התממשקות לאפליקציות צד שלישי כמו WhatsApp, סלאק, זום או תוכנות מקומיות אחרות אינה חלק מהיכולות המובנות. ואולם לפי ההצהרות של OpenAI, בעתיד ייתכן ש-API פתוח יאפשר חיבור של Operator לפלטפורמות נוספות, כולל שירותי צ’אט, ענן, ויישומים עסקיים.
האם יש סכנות בשימוש ב-Operator, כמו למשל שימוש לרעה?
אחת הסוגיות שמטרידות את קהילת האבטחה היא האפשרות שסוכני AI כמו Operator ינוצלו על ידי גורמים עוינים לצורך פישינג, התחזות או הונאות מקוונות. כבר דווחו ניסויים בהוכחת היתכנות למתקפות שבהן Operator שוכנע לבצע פעולות לא לגיטימיות באתרים שונים. OpenAI מצהירה שהיא שמה דגש רב על פיקוח, בקרות אתיות ומנגנוני בטיחות, אך כמו כל טכנולוגיה - גם כאן יש מקום לדאגה, בייחוד אם הכלי יגיע בעתיד לידיים לא נכונות.
איך תתמודד OpenAI עם עומס על השרתים, ככל שיותר משתמשים יבקשו להריץ משימות דרך Operator?
OpenAI פועלת על בסיס תשתיות הענן של מיקרוסופט Azure, ולטענתה יש לה את היכולת להרחיב את הקיבולת בהתאמה לצרכים. עם זאת, יש לקחת בחשבון ש-Operator צורך משאבים גדולים יותר ממערכת שיחה רגילה כמו ChatGPT, מכיוון שהוא מבצע סימולציה של ממשק משתמש גרפי ומנתח את הסביבה באופן מתמשך. החברה בוחנת מודלים של תעדוף, כולל מחיר גבוה יותר וגישה מדורגת, כדי למנוע עומס על המערכת.
אנתרופיק קלוד (X)350 מיליארד דולר ב-4 שנים: איך אנתרופיק הביסה את ChatGPT והפכה לענקית ה-AI השלישית בעולם
אנתרופיק, שנוסדה ב-2021 בסן פרנסיסקו, היא כיום אחת משלוש חברות הבינה המלאכותית הפרטיות הגדולות והחשובות בעולם, עם שווי של 350 מיליארד דולר
אנתרופיק, שמחזיקה בצ'אט - קלוד, נוסדה ב-2021 בסן פרנסיסקו, והיא כיום אחת משלוש חברות הבינה המלאכותית הפרטיות הגדולות והחשובות בעולם, עם שווי של 350 מיליארד דולר.
החברה הוקמה על ידי שבעה עובדים בכירים לשעבר מ-OpenAI, בראשם האחים דריו אמודאי (מנכ"ל) ודניאלה אמודאי (נשיאה), שהיו בין האחראים המרכזיים על פיתוח GPT-4 ו-GPT-3. הם עזבו את OpenAI מתוך חשש שהחברה מתקדמת מהר מדי לכיוון מסחור ללא מספיק דגש על בטיחות, והקימו את אנתרופיק כחברת Public Benefit Corporation, מבנה משפטי שמחייב אותה לאזן בין רווח כלכלי לבין תועלת ציבורית ארוכת טווח.
הדגש על בטיחות הוא ה-DNA של החברה. אנתרופיק פיתחה את שיטת Constitutional AI, מערכת חוקה כתובה של עקרונות אתיים שהמודל מחויב להם באופן פנימי, ולא רק דרך פילטרים חיצוניים. השיטה הוכיחה את עצמה כיעילה במיוחד בהפחתת תופעות של הזיות, הטיות והתנהגות מסוכנת. בנוסף, החברה הקימה Long-Term Benefit Trust, גוף נאמנות עצמאי שבוחר חלק מדירקטוריון החברה ומטרתו היחידה היא להבטיח שהחברה לא תסטה ממשימתה המקורית גם כשלחצים מסחריים יגברו.
בארבע השנים האחרונות אנתרופיק התקדמה בקצב מטורף. Claude 3 (מרץ 2024) היה המודל הראשון שהתעלה על GPT-4 במרבית המבחנים. Claude 3.5 Sonnet (יוני 2024) הביא שיפור של 2–3× בביצועי קידוד וזרימות עבודה מורכבות, והוסיף את תכונת Artifacts, חלון אינטראקטיבי שבו המודל בונה אפליקציות, דיאגרמות וקוד בזמן אמת מול המשתמש.
- מיקרוסופט ואנבידיה ישקיעו מיליארדים באנתרופיק - מה היא תיתן בתמורה?
- איך אנתרופיק עוקפת את OpenAI בדרך לרווחיות
- המלצת המערכת: כל הכותרות 24/7
באוקטובר 2024 הושקה תכונת "Computer use" – היכולת של Claude לשלוט במחשב כמו בן אדם: צילום מסך, הזזת עכבר, הקלדה, מה שהפך אותו לכלי אוטומציה חזק ביותר. ב-2025 כבר ראינו את Claude 4 Opus ו-Sonnet 4, Claude Sonnet 4.5 (ספטמבר) ו-Claude Haiku 4.5 (אוקטובר) – מודלים שמקבלים ציונים גבוהים מ-95% במבחני קידוד, מתמטיקה ומדעים ברמה גבוהה, ועולים בביצועים על GPT-4.5 ו-Gemini 2.5 Pro ברוב הקטגוריות.
