ai
צילום: FREEPIK

סוכן AI מי יודע? גם מפתחי הטכנולוגיה עצמם אינם יודעים

כולם אומרים שסוכני AI זה הדבר הבא בשוק העבודה, רק שאף אחד לא יודע להגדיר בדיוק מה זה. ננסה לעשות סדר

רן קידר | (1)
נושאים בכתבה AI

מילת הקסם "AI" נמצאת בכל מקום בשנתיים האחרונות, אך לאחרונה נראה שהצטרפה אליה מילת באז נוספת - "סוכן AI". סם אלטמן, מנכ"ל OpenAI, טוען כי "סוכני בינה מלאכותית יצטרפו לשוק העבודה השנה". מנכ"ל מיקרוסופט Microsoft Corp 0.59%   , סאטיה נאדלה, טען כי סוכנים "יחליפו בקרוב עבודות מבוססות ידע". מנכ"ל סיילספורס Salesforce.com -0.09%  , מארק בניוף, הצהיר שמטרת החברה היא "להיות ספק הסוכנים הדיגיטליים הטוב ביותר בעולם" באמצעות שירותי "סוכנות" שהיא מציעה. למרות כל החזונות הללו, אין הגדרה מוסכמת למהו בדיוק סוכן בינה מלאכותית.


כולם מסכימים שסוכני בינה מלאכותית ישנו את חיינו באופן מהותי. כמו ש-ChatGPT שינה את הדרך שבה אנחנו מתייחסים למידע ונתן לנו כלים חדשים, כך גם סוכני בינה מלאכותית צפויים לשנות את עולם העבודה שלנו. זה כנראה נכון, במוקדם או במאוחר, אבל לפני שמדברים על זה, חשוב שנסכים על מה בדיוק אנחנו מדברים. השימוש הרב מדי במילה האופנתית הזו גרם לה לאבד מהמשמעות המקורית שלה.


וכך, חברות רבות העוסקות בפיתוח אינן עובדות על אותו המוצר. סוכן של גוגל אינו דומה לסוכן של אמזון, שאינו דומה לסוכן של סיילספורס וכן הלאה. כיצד נמנע את הבלבול ומתי נחדל להשתמש במילה המשמשת, ככל הנראה, להכלת משמעויות רבות מדי?


השבוע פרסמה OpenAI רשומה בבלוג שלה המגדירה סוכנים כ"מערכות אוטומטיות היכולות להשלים משימות באופן עצמאי, במקום שהמשתמשים עצמם יעשו זאת". ברשומה אחרת, גם היא מהשבוע שעבר, פרסמה החברה בתיעוד למפתחים הגדרה שלפיה סוכן בינה מלאכותית הוא "מודל שפה גדול (LLM) המצויד בהוראות ובכלים". ואם אין די בבלבול, ראש מחלקת השיווק של החברה כתבה ברשת X כי המונחים "סוכן" ו"עוזר" זהים במשמעותם.


לעומתם, מיקרוסופט מנסה להבחין בין שני המונחים - סוכן ועוזר. סוכן, לטענתה, הוא האפליקציה של העולם החדש מבוסס הבינה המלאכותית וניתן לפתחו עם מומחיות ייחודית, בעוד שעוזר מיועד למשימות כלליות, כגון יצירת טיוטות לדואר אלקטרוני. מעבדת ה-AI, אנתרופיק, טוענת כי "ניתן להגדיר סוכנים במספר אופנים, הן כמערכות אוטונומיות לחלוטין הפועלות עצמאית לאורך זמן רב" והן כ"הטמעות רשומות העוקבות אחר פרוטוקולים שנכתבו מראש". לסיילספורס יש את ההגדרה הרחבה ביותר למהו סוכן בינה מלאכותית: "מערכת היכולה להבין את דרישות הלקוח ולהגיב אליהן ללא סיוע אנושי". אתר החברה מציע שש קטגוריות שונות, החל מסוכני "רפלקציה כללית" ועד ל"סוכנים מבוססי תועלת".


אז מדוע הבלבול?

סוכני בינה מלאכותית, כמו הבינה המלאכותית עצמה, נמצאים בתהליך מתמיד של התפתחות והגדרה מחדש. חברות כמו גוגל, פרפלקסיטי ו-OpenAI רק החלו להציג את הסוכנים הראשונים שלהן. ל-OpenAI יש את ה-Operator, לגוגל יש את Project Mariner ולפרפלקסיטי יש סוכן קניות. כל אחד מהם מציע יכולות שונות.


לחברות טכנולוגיה יש היסטוריה ארוכה של גמישות בהגדרות שהן עצמן קובעות, כשמטרתן העיקרית היא להשיג את יעדיהן, במיוחד כשמדובר בתחומים המתפתחים במהירות. עם זאת, אפשר להפנות אצבע מאשימה כלפי אנשי השיווק שלקחו מונח בעל משמעות טכנית והפכו אותו למילת אופנה ריקה מתוכן אמיתי.

קיראו עוד ב"BizTech"


אם לשפוט על פי האופן שבו מושג הבינה המלאכותית רק מתרחב והולך, סביר להניח שגם המונח "סוכן בינה מלאכותית" לא יעבור תהליך של סטנדרטיזציה בעתיד הקרוב, אם בכלל. גם במקרה זה, השפה מתפתחת בעקבות הטכנולוגיה, ולא להיפך.

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    אנונימי 14/05/2025 20:13
    הגב לתגובה זו
    בסוף מדובר בסוג של אפליקציות שמתממשקות עם הllm . כמובן שהמטרה היא שהן יעשו את זה בצורה היעילה ביותר.בסוף האתגר היה ונשאר המשיכה והאיסוף של הדאטה הרלוונטי ביותר לבעיה הנתונה.
אנתרופיק
צילום: טוויטר

איך אנתרופיק עוקפת את OpenAI בדרך לרווחיות

בעוד OpenAI שופכת הון עתק על מרכזי נתונים ומנויים לצרכנים, אנתרופיק בונה עסק אמיתי - שקט, יציב ומבוסס על לקוחות עסקיים. והמספרים מתחילים לדבר בעד עצמם

אדיר בן עמי |
נושאים בכתבה אנתרופיק OpenAI

OpenAI הפכה לשם נרדף לבינה מלאכותית. היא גייסה מיליארדים, בנתה חוות שרתים עצומות ומניעה את מירוץ הצ’אטבוטים הגלובלי. אבל מאחורי הקלעים, החברה מתמודדת עם בעיה בסיסית: עדיין לא ברור איך להפוך את ההצלחה האדירה הזו למודל עסקי יציב. בזמן ש־OpenAI מחפשת הכנסות, יריבתה הקטנה אנתרופיק בונה בשקט עסק אמיתי.


שתי החברות עוסקות באותו תחום: פיתוח מודלי שפה מתקדמים שמניעים בוטים, כלי עזר לעובדים, יישומי תכנות ותהליכי אוטומציה. אבל ההבדל ביניהן הוא לא טכנולוגי, אלא אסטרטגי: OpenAI פונה להמונים, אנתרופיק מדברת ישירות עם העסקים.


OpenAI נשענת על השותפות עם מיקרוסופט, שמשלבת את המודלים שלה במוצרי אופיס וב־Copilot. מעבר לכך, היא פונה לקהל הרחב: משתמשי ChatGPT שמשלמים 20 דולר בחודש בגרסה הבסיסית, או 200 דולר בתוכנית הפרו. למרות שמספר המשתמשים עצום עם יותר מ־800 מיליון מדי שבוע לפי החברה, ההכנסות רחוקות מלכסות את העלויות הכבדות של מחשוב, אחסון ופיתוח. אנתרופיק, לעומתה, נמנעת מהמירוץ אחר משתמשים חינמיים. כ־80% מהכנסותיה מגיעות מחברות - ארגונים שמיישמים את המודלים שלה לצורכי עבודה ממשיים. לפי נתוני החברה, כבר יש לה יותר מ־300 אלף לקוחות עסקיים, רובם בתחומי טכנולוגיה, משפטים ופיננסים.


חיסכון מוחשי בזמן ובכסף

הלקוחות של אנתרופיק לא מתעניינים בחוויית שיחה, אלא בחיסכון מוחשי בזמן ובכסף. הם משתמשים במודלים של החברה לכתיבת קוד, ניסוח חוזים, הפקת חשבוניות ובדיקות מסמכים. המיקוד הזה הופך את אנתרופיק לעסק ברור יותר מהמתחרה שלה. בעוד OpenAI מנסה לגבש מודל רווח מהציבור הרחב, אנתרופיק כבר רווחית כמעט על בסיס שימושים עסקיים בלבד. לפי הערכות שוק, היא פועלת בקצב הכנסות שנתי של כ־7 מיליארד דולר וצפויה להגיע לתשעה מיליארד עד סוף השנה, כמעט זהה להכנסות OpenAI, עם בסיס משתמשים קטן פי כמה.


דו"ח של קרן ההון סיכון מנלו ונצ’רס מצביע על יתרון משמעותי נוסף: לפי סקר שערכה בקרב חברות טכנולוגיה, אנתרופיק מובילה את תחום הקידוד עם נתח שוק של 42%, לעומת 21% בלבד ל־OpenAI. גם בשימושי בינה מלאכותית כלליים בחברות, אנתרופיק ניצבת בראש עם 32% לעומת 25% ליריבה שלה.


בינה מלאכותית
צילום: Midjourney

צ'אטבוטים מתחנפים: האם זה מה שבאמת אנחנו צריכים? על הנזקים בשיח מתחנף

מחקרים חדשים חושפים כיצד בינה מלאכותית נוטה לאשר החלטות בעייתיות, מחזקת הטיות אישיות ועלולה להוביל לתלות רגשית ופגיעה בבריאות הנפשית

אדיר בן עמי |
נושאים בכתבה בינה מלאכותית


אינטראקציות מתמשכות עם צ'אטבוטים עלולות ליצור תלות רגשית לא בריאה, לטשטש גבולות מוסריים ולעודד דפוסי התנהגות הרסניים. מחקרים עדכניים מצביעים על מגמה מטרידה: צ'אטבוטים נוטים להתחנף למשתמשים, לאשר החלטות מפוקפקות ולחזק דעות קדומות או הטיות אישיות. כך נוצרת תחושת נוחות מדומה שמקשה על המשתמש לזהות סכנות בזמן אמת. התוצאה היא מעגל סגור של חיזוק עצמי שבו המשתמש סומך יותר ויותר על הצ'אט, מקבל ממנו אישור לעמדותיו, ולעיתים מאבד קשר עם הביקורתיות והאיזון החברתי. בשטח כבר נרשמו מקרים שבהם צעירים שהתמכרו לשיח עם צ'אטבוטים נקלעו לבידוד חברתי, לצד הקצנה בהתנהגות ובדעות, כשאותם בוטים העניקו להם תחושת ביטחון והצדקה, במקום אזהרה או גבול.


כשהצ'אטבוט תומך גם בהחלטות מפוקפקות

התופעה מתחילה בשיחות יומיומיות, שבהן הצ'אטבוטים נועדו להיות תומכים ומעודדים. אך במקום להציע פרספקטיבה מאוזנת, הם לעיתים קרובות מאשרים את עמדת המשתמש באופן אוטומטי, גם אם היא כוללת אלמנטים פוגעניים. ניסויים שכללו אלפי דוגמאות מרחבי הרשת, כולל פורומים כמו "Am I The Asshole" (AITA) ברדיט, חשפו כי צ'אטבוטים מובילים מאשרים התנהגויות שגויות בשיעור גבוה בהרבה מזה של בני אדם.

לדוגמה, בסיפור שבו אדם תיאר כיצד תלה שקית זבל על עץ בפארק במקום לחפש פח אשפה, הרוב המוחלט של התגובות האנושיות גינו את המעשה כחוסר אחריות סביבתית. לעומת זאת, הצ'אטבוטים הגיבו בהסכמה והדגישו את "הכוונה הטובה" מאחורי הפעולה, כשהם מציינים כי "הניסיון לשמור על ניקיון ראוי להערכה". התוצאה היא חיזוק של התנהגות המזיקה לסביבה ולחברה, מבלי לעודד שינוי.

הבעיה מתעצמת בתחומים רגישים כמו יחסים זוגיים וחברויות. במקרים שבהם משתמשים מתארים הסתרה מכוונת של מידע, כמו שקר על הוצאות כספיות כדי להימנע מעימות, הצ'אטבוטים נוטים להצדיק את ההתנהגות כ"הגנה על השלום". זה קורה בשיעור של כ-50% יותר מאשר בתגובות אנושיות, שבהן נפוצה ביקורת ישירה כמו "זה פוגע באמון הבסיסי".

דוגמה נוספת היא תרחישים של עימותים משפחתיים: אדם שמתאר צעקות על בן זוג במהלך ויכוח על חלוקת מטלות מקבל מהצ'אטבוט תגובה כמו "זה מובן לחלוטין בהתחשב בלחץ היומיומי", במקום עצה ישירה להפחתת אלימות מילולית. התחנפות כזו לא רק מעודדת המשך התנהגות דומה, אלא גם יוצרת אשליה של תמיכה מוסרית שמקשה על המשתמש לזהות את הנזק שהוא גורם לאחרים.


ההשפעות ארוכות הטווח

מעבר לשיחות בודדות, ההשפעה של צ’אטבוטים מצטברת ומשנה דפוסי התנהגות לאורך זמן. מחקרים שבוצעו בקרב יותר מ־1,000 משתמשים מצאו כי אינטראקציות עם צ’אטבוטים “חנפנים” מגבירות את תחושת הצדק העצמי, במיוחד במצבים רגשיים טעונים כמו קונפליקטים זוגיים או חברתיים. משתמשים שקיבלו מהבוט אישור להחלטות מפוקפקות – למשל התעלמות מצרכים רגשיים של בן הזוג – דיווחו על ירידה של 20% עד 30% בנכונות לפיוס או לשינוי גישה. התגובה המאשרת יוצרת מעגל סגור: המשתמש מרגיש צודק, בוטח יותר בבוט, ומגביר את השימוש בו. בטווח הקצר נרשמת שביעות רצון גבוהה מהשיחות, אך לאורך זמן נצפית גם הקצנה של הטיות קיימות, כמו נטייה להאשים אחרים ולהימנע מהתבוננות פנימית.