
AI מקבל החלטות טובות יותר מבני אדם - אז למה אנחנו עדיין לא סומכים עליו?
למרות היתרונות הסטטיסטיים המובהקים, הציבור לא מוותר על אמפתיה אנושית ומתקשה לתת אמון במערכת שלא תישא באחריות ותפצה בשעת הצורך
יותר ויותר מחקרים ומקרי מבחן מראים שמערכות בינה מלאכותית מסוגלות לקבל החלטות מדויקות, עקביות ולעיתים אף בטוחות יותר מאלה של בני אדם. ובכל זאת, כשזה מגיע להחלטות שמשפיעות על חיינו – בנושאים כמו משפט, ביטוח, תחבורה או תעסוקה, הציבור ממשיך להעדיף שיקול דעת אנושי. הפער הזה, בין היכולת הטכנולוגית לבין האמון הציבורי, הופך לאחת הסוגיות המרכזיות בעידן ה־AI.
קחו לדוגמה משאיות אוטונומיות. לפי מנהלי חברות שפיתחו מערכות נהיגה אוטונומית, משאית ללא נהג אנושי מסוכנת פחות מאשר נהג בשר ודם. בחינה רטרואקטיבית של תאונות קטלניות בכבישים ראשיים בארצות הברית הראתה כי מערכות AI היו מצליחות להימנע מכל התאונות, לפחות בסימולציות. ובכל זאת, הרעיון של כלי רכב כבד שנע ללא נהג עדיין מעורר פחד.
המתח הזה קיים גם בתחומים אחרים לגמרי. בעולם הבוררות והמשפט פותחו מערכות AI שמנתחות מסמכים, תקדימים וראיות, ומסוגלות להציע הכרעות מדויקות ועקביות יותר משל בוררים אנושיים. ועדיין, כמעט אף אחד לא בוחר להשתמש בהן בפועל. לא בגלל שהן לא עובדות אלא בגלל חוסר אמון.
הפער בין היכולות המרשימות של הבינה המלאכותית לקבל החלטות מבוססות נתונים לבין חוסר האמון האנושי נובע מהבדלים מהותיים באופן שבו אנו תופסים "החלטה טובה", מעבר לחישוב קר של יעילות. ניתן לפרק את הסיבות המרכזיות לחוסר האמון לשלוש קטגוריות עיקריות: מגבלות טכנולוגיות ואתיות של ה-AI, פסיכולוגיה אנושית ושאלת האחריות.
- מחקרים: אתם לא באמת שולטים על החיים שלכם, "אנשים הם חלק ממכונה חברתית משומנת"
- 52 שנים, 1,037 משתתפים, מסקנה אחת: כך הילדות שלכם קבעה את עתידכם
- המלצת המערכת: כל הכותרות 24/7
הטענה ש-AI מקבל החלטות "טובות יותר" היא מדויקת בעיקר בתוך הקשר צר ומוגדר היטב. AI מצטיין במטלות אנליטיות: ניתוח מיליוני עסקאות למציאת הונאה, אופטימיזציה של שרשראות אספקה או אבחון דפוסים רדיולוגיים. אלה החלטות שמוגדרות על ידי קריטריון הצלחה יחיד וברור (דיוק, מהירות).
אך החיים האנושיים מלאים בהחלטות שאינן כאלה. הן דורשות שיקול דעת, הבנה של מוסר, אמפתיה והקשר רחב.
כמו כן, מערכות AI לומדות מנתוני עבר. אם הנתונים הללו משקפים עוולות היסטוריות (למשל, סטטיסטיקות פשיעה מוטות נגד קבוצות מיעוט), ה-AI ילמד שהפליה זו היא הנורמה וינציח אותה. אנשים חוששים, ובצדק, ממערכת חסרת פנים שמנציחה אי-שוויון תחת מעטה של "אובייקטיביות".
- דיכאון עמוק: המחלה השקטה שמשבשת את החיים; האם אפשר גם אחרת?
- 8 סימנים שהזוגיות שלכם בבעיה - ומה הם אומרים על עתיד הקשר
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- מבחן המרשמלו: האם הניסוי הפסיכולוגי המפורסם באמת ניבא הצלחה...
בעיית ה"קופסה השחורה"
מודלים מודרניים רבים, במיוחד ברשתות נוירונים עמוקות, הם כה מורכבים עד שקשה מאוד להבין או להסביר כיצד הגיעו להחלטה מסוימת. חוסר שקיפות זה מערער את האמון. אם רופא או שופט מקבלים החלטה, הם מחויבים להסביר את ההיגיון שעומד מאחוריה; מכונה לרוב לא יכולה לספק הסבר כזה.
באופן פרדוקסלי, בני אדם מוכנים לקבל החלטות אנושיות גם כשהן אטומות לחלוטין. שופט מקבל החלטה, ואין דרך אמיתית להבין כיצד מוחו עיבד את המידע. ועדיין, המערכת זוכה לאמון. לעומת זאת, AI, שיכול להציג תהליך קבלת החלטות מתועד, מבוקר וניתן לביקורת, נתפס כחשוד.
כאן נכנסת לתמונה הדרישה ל־AI “בר הסבר”. בענפים כמו ביטוח ופיננסים, רגולטורים כבר אילצו חברות להראות כיצד אלגוריתמים מקבלים החלטות: אילו נתונים נלקחו בחשבון, אילו משתנים השפיעו, ואיך נמנעת אפליה. במובן הזה, מערכות AI הפכו לשקופות יותר מבני אדם.
דווקא הכישלונות הראשונים של אלגוריתמים, למשל במערכות ענישה פליליות או הערכת מורים, תרמו לתהליך הזה. הם אילצו את החברות והרגולטורים לדרוש נתונים, תיעוד ואחריות. ברגע שתהליך הופך דיגיטלי, הוא משאיר עקבות, ואי אפשר “להכחיש” החלטות בדיעבד.
הצורך באמון, שליטה ואמפתיה
האמון הוא גורם רגשי ופסיכולוגי, לא רק רציונלי. גם אם נדע סטטיסטית שה-AI מדויק ב-99.9%, נהיה מוטרדים מהסיכוי של 0.01% לטעות.
בהחלטות הנוגעות בבריאות, בחינוך או ברווחה, אנו רוצים יחס אנושי. אנו רוצים שהרופא יראה אותנו כבני אדם, לא רק כקובץ נתונים. חוסר היכולת של AI לחוש אמפתיה פוגע באמון ביכולתו לקבל החלטה "טובה" במלוא מובן המילה.
נוסף על כך, אנשים מעדיפים לשמור על תחושת שליטה בחייהם. הפקדת החלטות גורליות בידי אלגוריתם נתפסת כוויתור על שליטה זו.
גורם רגשי נוסף הוא העובדה שכבני אדם אנו נוטים לסלוח לטעויות אנוש ("הוא רק בן אדם, הוא עשה כמיטב יכולתו") בקלות רבה יותר מאשר לטעויות מכונה, שנתפסות כקרות וחסרות רגישות.
חוקרים שעוסקים בביקורת אלגוריתמית מדגישים שהשאלה אינה אם AI טועה, אלא איך מודדים את ההשפעות שלו. במקום להתמקד רק ב”איך האלגוריתם חשב”, הם בוחנים את התוצאות: מי נפגע, מי מרוויח, והאם ההחלטות עקביות לאורך זמן. במובן הזה, AI דווקא מאפשר רמת פיקוח שמעולם לא הייתה קיימת על החלטות אנושיות.
ועדיין, הציבור חושש. סקרים מראים שאנשים מודאגים לפחות כמו שהם נלהבים. סיפורים על צ’אטבוטים שפוגעים, על פגיעה בפרטיות ועל אובדן מקומות עבודה, שוחקים את האמון גם במערכות אחראיות יותר.
הפער הזה בולט במיוחד כשמדובר בהחלטות “כבדות משקל”: תאונות דרכים, סכסוכים משפטיים, קבלה לעבודה. גם אם הסטטיסטיקה תומכת ב־AI, הרגש האנושי מתקשה לוותר על תחושת השליטה.
שאלת האחריות
אחד ממחסומי האמון הגדולים ביותר בטכנולוגיה זו הוא שאלת האחריות. מערכות משפט מסורתיות, הן במשפט האזרחי (פיצויים על נזקים) והן במשפט הפלילי (ענישה על פשעים), בנויות סביב המושגים של כוונה, מודעות, ורשלנות. אנו מענישים או מחייבים בפיצויים אדם שידע שהוא גורם נזק, או שהיה עליו לדעת ולהיות זהיר יותר. לעומת זאת, AI הוא אוסף של חישובים סטטיסטיים ואלגוריתמים, הפועל ללא מודעות עצמית או כוונה. המכונה לא "מתכוונת" לדרוס הולך רגל; היא פשוט נכשלת בזיהוי אובייקט בחישוב מסוים.
חוסר היכולת לשייך כוונה או רשלנות למכונה יוצר "פער אחריות" משמעותי. פער זה מתבטא בכך שכל צד המעורב בשרשרת - המפתח, היצרן, המפעיל ואף המשתמש, יכול לטעון שהוא אינו האחראי הבלעדי לנזק.
המפתח יטען ששיטות האימון היו תקינות ושהוא לא יכול היה לחזות התנהגות בלתי צפויה של מערכת לומדת. המפעיל יטען שהוא הסתמך על מומחיות המפתחים ולא שלט בפעולת המכונה ברגע האמת.
השלכות מעשיות של חוסר הבהירות הזה מערערות את אמון הציבור. ברמה הפרטית, אדם הנפגע מהחלטת AI - למשל, מועמד לעבודה שנדחה על ידי אלגוריתם סינון אוטומטי, או חולה שאובחן לא נכון על ידי כלי תומך החלטה, נותר ללא כתובת ברורה לערעור או לדרישת פיצוי. אין לו למי לפנות כדי לקבל הסבר מניח את הדעת, מה שיוצר תחושה של חוסר אונים וחוסר צדק.
ברמה הרגולטורית והחברתית הרחבה יותר, קובעי מדיניות חוששים לאשר שימוש נרחב בטכנולוגיות אוטונומיות לחלוטין, כל עוד שאלת האחריות לא נפתרה. לדוגמה, אימוץ מלא של רכב אוטונומי תלוי לא רק בבטיחות הטכנולוגית, אלא גם ביכולת של מערכת המשפט לקבוע במהירות ובהגינות מי נושא בתוצאות במקרה של תאונה.
כדי לגשר על הפער הזה, מתפתחות גישות רגולטוריות חדשות. אחת הגישות המרכזיות היא הטלת אחריות מוגברת על היצרן או המפעיל של מערכות AI בסיכון גבוה, ללא צורך להוכיח רשלנות ספציפית שלהם.
גישה זו מעבירה את נטל ההוכחה ובאה להבטיח שהקורבן יקבל פיצוי, גם אם קשה להצביע על טעות אנוש ספציפית. גישה משלימה היא דרישה לשקיפות מובנית המחייבת מפתחים לבנות מערכות שניתן לבקר ולעקוב אחר תהליך קבלת ההחלטות שלהן.
במילים אחרות, שאלת האחריות אינה רק פרט טכני-משפטי; היא הליבה של האמון הציבורי. הציבור יסמוך על AI רק כאשר תהיה לו ודאות שמישהו, או משהו, יישא בתוצאות כאשר הטכנולוגיה תיכשל, ושתהיה קיימת מערכת הוגנת ושקופה למתן דין וחשבון ופיצוי.
המבחן האמיתי: נזילות אנושית מול עקביות אלגוריתמית
חלק מהמומחים טוענים שבתחומים מסוימים, דווקא חוסר הרגש של AI הוא יתרון. אלגוריתם לא מתעייף, לא כועס ולא מושפע מלחצים חיצוניים. מנגד, אחרים מזהירים שהיעדר אמפתיה הוא חיסרון מהותי, בעיקר בתחומים כמו משאבי אנוש או משפט.
כדי לגשר על הפער, מפתחי מערכות מתקדמות מגבילים בכוונה את תחומי הפעולה של ה־AI. הן מופעלות רק במצבים שבהם ניתן להוכיח אמינות, והן מנוטרות כל הזמן מול החלטות אנושיות מקבילות. זהו ניסיון לבנות אמון דרך ביצועים, לא דרך הבטחות עתידיות.
ניתן לסכם זאת כך: הוויכוח סביב אמון ב־AI אינו טכנולוגי בלבד, הוא פילוסופי וכלכלי. אנחנו סומכים על בני אדם למרות שאנחנו יודעים שהם טועים, ומתקשים לסמוך על מכונות גם כשהן מוכיחות ביצועים טובים יותר. ייתכן שהשינוי לא יגיע ברגע אחד, אלא בהדרגה, דרך תחומים שבהם היתרון ברור, השקיפות גבוהה והפיקוח הדוק.
בסופו של דבר, השאלה אינה אם AI יכול לקבל החלטות טובות יותר, אלא אם אנחנו מוכנים לשנות את ההגדרה שלנו ל”שיקול דעת”.
- 1.לרון 17/12/2025 08:05הגב לתגובה זועי יוניליוור ולפתע הופיעה בחשבון ניע מתכוון להוסיף כי גלידה גורמת לאושר אמנם ריגעי אך המוח זוכר ואני מסתמך על כך לצמיחה כמו שאמר פיטר לינץ או אחר שהוא קונה מניות שילדיו משתמשים במותגיהםכמובן לא המלצה
