סוכן AI
צילום: ביזפורטל

אחרי מנועי ה-AI - זה הדבר הבא בעולם הטכנולוגיה

מיקרוסופט, גוגל ו-OpenAI כבר חזק במרוץ - סוכני ה-AI יכבשו בקרוב את עולםן הטכנולוגיה. הם יעשו עבורנו קניות אונליין, ינהלו את היומן שלנו וגם ייקחו חלק בניהול השוטף של עסקים. מה חשוב לדעת עליהם, וממה צריך להיזהר?
עוזי גרסטמן | (4)

העולם הדיגיטלי, שעבר מהפכה בעקבות מנועי ה-AI שהשיקו חברות טכנולוגיה, עומד בפני שינוי עמוק נוסף - עם כניסתם של סוכני AI. מדובר במערכות בינה מלאכותית שמיועדות לבצע משימות אונליין בשמנו, כמו קניות, ניהול משימות, ואפילו קבלת החלטות מורכבות. בזמן שחברות כמו OpenAI, מיקרוסופט ואנטרופיק מתחרות על פיתוח הכלים המתקדמים ביותר בתחום, ברור שהטכנולוגיה הזו משנה את כללי המשחק כבר עכשיו.

סוכני AI הם מערכות מתקדמות המיועדות לייעל את חיי המשתמשים על ידי ביצוע משימות אוטונומיות. מדובר ברובוטים חכמים שמתוכנתים לבצע פעולות יומיומיות, כמו חיפוש והשוואת מוצרים, ביצוע הזמנות, ניהול יומנים ואפילו ניהול מערכות מורכבות בארגונים. המטרה היא להקל על המשתמשים, לחסוך זמן ולשפר את קבלת ההחלטות.

סוכני ה-AI של OpenAI לבצע גם ניהול לוגיסטי צילום: ביזפורטל

OpenAI לדוגמה, פיתחה מערכת סוכנים חכמה שמשתמשת במודל GPT-4, המסוגלת לזהות העדפות משתמש, להשוות אלפי תוצאות, ולבצע החלטות רכישה אוטומטיות – הכל בתוך שניות ספורות. החברה הצהירה באחרונה כי הסוכנים שלה מסוגלים לבצע לא רק קניות פרטיות, אלא גם משימות עסקיות כמו ניהול לוגיסטי ושיפור מערכות שירות.

הפיתוחים המרכזיים של ענקיות הטכנולוגיה בתחום

OpenAI - מתמקדת בפיתוח סוכנים שמסוגלים לעבוד בפלטפורמות מרובות, לשלב בין מקורות מידע שונים ולהציע פתרונות אינטגרטיביים. כך לדוגמה, סוכני החברה כבר מציגים הצלחה בשיפור חוויית הקנייה באינטרנט: הם מנתחים ביקורות, משווים מחירים ובוחרים את המוצר המתאים ביותר לכל לקוח. בנוסף, החברה מדגישה את הפוטנציאל לשלב סוכנים במערכות ניהול לקוחות (CRM) ובמערכות פיננסיות.

מיקרוסופט - הציגה את Copilot, מערכת סוכני AI מתקדמת שמובנית במוצרי האופיס שלה. המערכת מאפשרת לעובדים לייעל את עבודתם על ידי יצירת מסמכים, ניתוח נתונים ותכנון פרויקטים בצורה אוטומטית. בתחום הקניות, החברה מתכננת לחבר את Copilot לשירותים כמו Teams ואאוטלוק, כך שמשתמשים יוכלו לבצע קניות, לנהל פגישות ולסנכרן משימות בצורה חלקה.

אנטרופיק - פיתחה את קלוד, סוכן AI ייחודי שיכול "להשתלט" על מחשבים אישיים ולבצע דרכם משימות כמו חיפוש באינטרנט, פתיחת אפליקציות ואפילו שליחה של מיילים. המערכת מיועדת בעיקר לארגונים, אבל גם צרכנים פרטיים יכולים להשתמש בה לניהול חיים דיגיטליים.

גוגל - משקיעה רבות בפיתוח סוכני בינה מלאכותית במטרה לשפר את חוויית המשתמש ולהציע פתרונות חכמים במגוון תחומים. אחד הפיתוחים המרכזיים הוא ג'מיני (Gemini), מודל AI מתקדם המשלב יכולות עיבוד טקסט, תמונה, וידאו וקוד, ומיועד להשתלב במוצרים ושירותים של החברה. בנוסף, גוגל מפתחת את פרויקט ג'רוויס - מערכת AI שתוכל לבצע משימות מורכבות כמו הזמנת טיסות, עריכת קניות וביצוע מחקרים, באופן אוטונומי וללא התערבות אנושית. בכנס Google Cloud Next 2024 הציגה החברה את פלטפורמת הענן Vertex AI, המציעה מעל 130 מודלי AI לשימוש, בהם מודלים של גוגל עצמה כמו Gemini ומחולל התמונות Imagen 2.0, לצד מודלים של צד ג' כמו Claude 3.

קיראו עוד ב"BizTech"

אמזון - משקיעה בסוכני AI שיכולים לנהל לוגיסטיקה במחסנים ובשירותי פריים.

מטא - מתמקדת בפיתוח סוכנים למדיה חברתית שיוכלו לנהל חשבונות, להציע פוסטים ולהגיב אוטומטית.

מה סוכני AI יכולים להציע לנו?

חיסכון בזמן ובמאמץ: סוכני AI יכולים לבצע משימות שבדרך כלל לוקחות שעות, בתוך שניות.

התאמה אישית גבוהה: היכולת ללמוד את העדפות המשתמש ולספק פתרונות שמותאמים באופן אישי.

ייעול כלכלי: יכולת השוואת מחירים ואיתור מבצעים שיכולים לחסוך עשרות אחוזים בהוצאות.

שיפור התפוקה: בארגונים, סוכנים יכולים לבצע אוטומציה של משימות מורכבות, כמו ניתוח נתונים, סידור לוחות זמנים וניהול מלאי.

מה החסרונות של סוכני AI?

אבטחת מידע ופרטיות: אחד החששות המרכזיים בתחום הוא אבטחת המידע האישי של המשתמשים. דליפות נתונים עלולות לחשוף את הרגלי הקנייה, פרטי תשלום ומידע רגיש נוסף.

תלות טכנולוגית: ככל שסומכים יותר על סוכנים, המשתמשים עלולים לאבד יכולות אישיות לניהול משימות, ואולי גם את המחשבה היצירתית ורעיונות חדשניים.

טעויות והטיה: אלגוריתמים לא מושלמים עלולים להציע פתרונות שאינם אידיאליים או מבוססים על נתונים מוטים.

תגובות לכתבה(4):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 4.
    Amizur Nachshoni 04/12/2024 18:28
    הגב לתגובה זו
    כמו בכל דבר בחיים... בכל דבר צריך את המינון שלו...
  • 3.
    עולם מסובך יוצר מלחמות -תנו לחיות פשוט (ל"ת)
    עושה חשבון 04/12/2024 01:02
    הגב לתגובה זו
  • 2.
    לא 04/12/2024 00:23
    הגב לתגובה זו
    צריך לראות את המוצר לדעת מה אני מזמין, לא שהוא יחליט בשבילי...
  • 1.
    איתן 03/12/2024 18:25
    הגב לתגובה זו
    שלא יהפכו לגוגל שאוסף עלינו מידע שלא בהכרח לטובתנו
אנתרופיק
צילום: טוויטר

איך אנתרופיק עוקפת את OpenAI בדרך לרווחיות

בעוד OpenAI שופכת הון עתק על מרכזי נתונים ומנויים לצרכנים, אנתרופיק בונה עסק אמיתי - שקט, יציב ומבוסס על לקוחות עסקיים. והמספרים מתחילים לדבר בעד עצמם

אדיר בן עמי |
נושאים בכתבה אנתרופיק OpenAI

OpenAI הפכה לשם נרדף לבינה מלאכותית. היא גייסה מיליארדים, בנתה חוות שרתים עצומות ומניעה את מירוץ הצ’אטבוטים הגלובלי. אבל מאחורי הקלעים, החברה מתמודדת עם בעיה בסיסית: עדיין לא ברור איך להפוך את ההצלחה האדירה הזו למודל עסקי יציב. בזמן ש־OpenAI מחפשת הכנסות, יריבתה הקטנה אנתרופיק בונה בשקט עסק אמיתי.


שתי החברות עוסקות באותו תחום: פיתוח מודלי שפה מתקדמים שמניעים בוטים, כלי עזר לעובדים, יישומי תכנות ותהליכי אוטומציה. אבל ההבדל ביניהן הוא לא טכנולוגי, אלא אסטרטגי: OpenAI פונה להמונים, אנתרופיק מדברת ישירות עם העסקים.


OpenAI נשענת על השותפות עם מיקרוסופט, שמשלבת את המודלים שלה במוצרי אופיס וב־Copilot. מעבר לכך, היא פונה לקהל הרחב: משתמשי ChatGPT שמשלמים 20 דולר בחודש בגרסה הבסיסית, או 200 דולר בתוכנית הפרו. למרות שמספר המשתמשים עצום עם יותר מ־800 מיליון מדי שבוע לפי החברה, ההכנסות רחוקות מלכסות את העלויות הכבדות של מחשוב, אחסון ופיתוח. אנתרופיק, לעומתה, נמנעת מהמירוץ אחר משתמשים חינמיים. כ־80% מהכנסותיה מגיעות מחברות - ארגונים שמיישמים את המודלים שלה לצורכי עבודה ממשיים. לפי נתוני החברה, כבר יש לה יותר מ־300 אלף לקוחות עסקיים, רובם בתחומי טכנולוגיה, משפטים ופיננסים.


חיסכון מוחשי בזמן ובכסף

הלקוחות של אנתרופיק לא מתעניינים בחוויית שיחה, אלא בחיסכון מוחשי בזמן ובכסף. הם משתמשים במודלים של החברה לכתיבת קוד, ניסוח חוזים, הפקת חשבוניות ובדיקות מסמכים. המיקוד הזה הופך את אנתרופיק לעסק ברור יותר מהמתחרה שלה. בעוד OpenAI מנסה לגבש מודל רווח מהציבור הרחב, אנתרופיק כבר רווחית כמעט על בסיס שימושים עסקיים בלבד. לפי הערכות שוק, היא פועלת בקצב הכנסות שנתי של כ־7 מיליארד דולר וצפויה להגיע לתשעה מיליארד עד סוף השנה, כמעט זהה להכנסות OpenAI, עם בסיס משתמשים קטן פי כמה.


דו"ח של קרן ההון סיכון מנלו ונצ’רס מצביע על יתרון משמעותי נוסף: לפי סקר שערכה בקרב חברות טכנולוגיה, אנתרופיק מובילה את תחום הקידוד עם נתח שוק של 42%, לעומת 21% בלבד ל־OpenAI. גם בשימושי בינה מלאכותית כלליים בחברות, אנתרופיק ניצבת בראש עם 32% לעומת 25% ליריבה שלה.


בינה מלאכותית
צילום: Midjourney

צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף

מחקרים חדשים חושפים כיצד בינה מלאכותית נוטה לאשר החלטות בעייתיות, מחזקת הטיות אישיות ועלולה להוביל לתלות רגשית ופגיעה בבריאות הנפשית

אדיר בן עמי |
נושאים בכתבה בינה מלאכותית


אינטראקציות מתמשכות עם צ'אטבוטים עלולות ליצור תלות רגשית לא בריאה, לטשטש גבולות מוסריים ולעודד דפוסי התנהגות הרסניים. מחקרים עדכניים מצביעים על מגמה מטרידה: צ'אטבוטים נוטים להתחנף למשתמשים, לאשר החלטות מפוקפקות ולחזק דעות קדומות או הטיות אישיות. כך נוצרת תחושת נוחות מדומה שמקשה על המשתמש לזהות סכנות בזמן אמת. התוצאה היא מעגל סגור של חיזוק עצמי שבו המשתמש סומך יותר ויותר על הצ'אט, מקבל ממנו אישור לעמדותיו, ולעיתים מאבד קשר עם הביקורתיות והאיזון החברתי. בשטח כבר נרשמו מקרים שבהם צעירים שהתמכרו לשיח עם צ'אטבוטים נקלעו לבידוד חברתי, לצד הקצנה בהתנהגות ובדעות, כשאותם בוטים העניקו להם תחושת ביטחון והצדקה, במקום אזהרה או גבול.


כשהצ'אטבוט תומך גם בהחלטות מפוקפקות

התופעה מתחילה בשיחות יומיומיות, שבהן הצ'אטבוטים נועדו להיות תומכים ומעודדים. אך במקום להציע פרספקטיבה מאוזנת, הם לעיתים קרובות מאשרים את עמדת המשתמש באופן אוטומטי, גם אם היא כוללת אלמנטים פוגעניים. ניסויים שכללו אלפי דוגמאות מרחבי הרשת, כולל פורומים כמו "Am I The Asshole" (AITA) ברדיט, חשפו כי צ'אטבוטים מובילים מאשרים התנהגויות שגויות בשיעור גבוה בהרבה מזה של בני אדם.

לדוגמה, בסיפור שבו אדם תיאר כיצד תלה שקית זבל על עץ בפארק במקום לחפש פח אשפה, הרוב המוחלט של התגובות האנושיות גינו את המעשה כחוסר אחריות סביבתית. לעומת זאת, הצ'אטבוטים הגיבו בהסכמה והדגישו את "הכוונה הטובה" מאחורי הפעולה, כשהם מציינים כי "הניסיון לשמור על ניקיון ראוי להערכה". התוצאה היא חיזוק של התנהגות המזיקה לסביבה ולחברה, מבלי לעודד שינוי.

הבעיה מתעצמת בתחומים רגישים כמו יחסים זוגיים וחברויות. במקרים שבהם משתמשים מתארים הסתרה מכוונת של מידע, כמו שקר על הוצאות כספיות כדי להימנע מעימות, הצ'אטבוטים נוטים להצדיק את ההתנהגות כ"הגנה על השלום". זה קורה בשיעור של כ-50% יותר מאשר בתגובות אנושיות, שבהן נפוצה ביקורת ישירה כמו "זה פוגע באמון הבסיסי".

דוגמה נוספת היא תרחישים של עימותים משפחתיים: אדם שמתאר צעקות על בן זוג במהלך ויכוח על חלוקת מטלות מקבל מהצ'אטבוט תגובה כמו "זה מובן לחלוטין בהתחשב בלחץ היומיומי", במקום עצה ישירה להפחתת אלימות מילולית. התחנפות כזו לא רק מעודדת המשך התנהגות דומה, אלא גם יוצרת אשליה של תמיכה מוסרית שמקשה על המשתמש לזהות את הנזק שהוא גורם לאחרים.


ההשפעות ארוכות הטווח

מעבר לשיחות בודדות, ההשפעה של צ’אטבוטים מצטברת ומשנה דפוסי התנהגות לאורך זמן. מחקרים שבוצעו בקרב יותר מ־1,000 משתמשים מצאו כי אינטראקציות עם צ’אטבוטים “חנפנים” מגבירות את תחושת הצדק העצמי, במיוחד במצבים רגשיים טעונים כמו קונפליקטים זוגיים או חברתיים. משתמשים שקיבלו מהבוט אישור להחלטות מפוקפקות – למשל התעלמות מצרכים רגשיים של בן הזוג – דיווחו על ירידה של 20% עד 30% בנכונות לפיוס או לשינוי גישה. התגובה המאשרת יוצרת מעגל סגור: המשתמש מרגיש צודק, בוטח יותר בבוט, ומגביר את השימוש בו. בטווח הקצר נרשמת שביעות רצון גבוהה מהשיחות, אך לאורך זמן נצפית גם הקצנה של הטיות קיימות, כמו נטייה להאשים אחרים ולהימנע מהתבוננות פנימית.