לא תמיד שירות תוצאת AI הוא טוב יותר (תמונות AI)
לא תמיד שירות תוצאת AI הוא טוב יותר (תמונות AI)

כאשר כלי AI ממליצים למי להלוות ובמה להשקיע

השימוש ב-AI בגופים פיננסיים ישראליים הולך וגדל, הן לקבלת החלטות בתוך הארגונים והן במתן שירות ללקוחות. בהעדרה של רגולציה ייעודית, יש ליישם את הכללים הקיימים וגם הלקוחות צריכים להיות עירניים


איתמר לוין |

הבינה המלאכותית נכנסת לעוד ועוד מתחומי חיינו, כולל היום-יומיים ולא תמיד אנחנו מודעים לכך. אחד מהם הוא עולם הפיננסים, בו כולנו מצויים - החל מחשבונות בנק, דרך פוליסות ביטוח וכלה בקופות פנסיה. עו"ד עומר כרמל, ראש תחום קניין רוחני ובינה מלאכותית במשרד עמית-פולק-מטלון, התייחס לנושא זה.

מהם השימושים שעושים כיום גופים פיננסיים ישראליים בבינה מלאכותית?



השימוש בכלי בינה מלאכותית נמצא כבר היום כמעט בכל שלבי השירות של גופים פיננסיים, והשאלה היא מה עומק החדירה של הכלים הללו לשלבים הכרוכים בהפעלת שיקול דעת וקבלת החלטות, ומה מידת הבקרה והפיקוח האנושי. מטבע הדברים, היקף היישומים הפרטניים שמבצע כל ארגון איננו בהכרח גלוי, בפרט כשהשימוש נעשה לצורכי ההתנהלות הפנימית, אבל יש חברות שגם מעמידות שימושי AI לשימוש הלקוחות באופן שהם באים במגע ישיר עם הציבור.

המקום הראשון בו ניתן לראות בגלות כלי AI הוא בצ'אטים של שירות לקוחות ומכירה. למשל: חברות אשראי מפעילות צ'אט-בוט שמציע מוצרי ביטוח ופוליסות, מפרט את גבולות הכיסוי או הבדלים בין מוצרים, מדריך בתהליכי הגשת תביעה וכדומה. יש בתי השקעות שמציעים בוטים שמספקים מידע על תנודות בשוק ואפיקי השקעה, וכך  מאפשרים ללקוחות ליצור תמונת מצב בזמן אמת ביישומון.

בשני התחומים האלה, השירות מחייב עמידה בתנאי הרגולציה הפיננסית הרלוונטית (כלומר: לא רגולציית AI ייעודית, אלא רגולציה פיננסית ישנה וטובה שכלליה מיושמים על המימד החדש), שמתפרשים גם על מסירת מידע, מתן ייעוץ וכו'.

מאחורי הקלעים, אין ספק שגופים מסוגים שונים משתמשים בכלי AI ככלי עזר לגורם אנושי בקבלת החלטות או פעולות שמבוססות על פרוטוקול מסוים. למשל: בתהליכי חיתום, גם לביטוח וגם למתן הלוואות ואשראי, ניהול סיכונים, דירוגי אשראי, ניתוח אפיקי השקעה וייעוץ השקעות וניהול תיקי מסחר.

בקרנות גידור נעשה שימוש במערכות AI מתקדמות שמנתחות באופן שוטף נתונים כלכליים מהעולם, כולל מידע ממקורות גלובליים כמו בלומברג ורויטר'ס,  וכך מסייעות בהתאמת מבנה התיק לשינויים הצפויים במגמות השוק. מנהלי תיקי השקעות בגופי השקעה גדולים מפעילים מערכות שמנתחות תנועות בשוק, ומאפשרות להם לזהות במהירות לסיכונים והזדמנויות, ולהגיב לשינויים מהירים.


קיראו עוד ב"משפט"

האם יש בישראל כללים רגולטוריים לשימוש כזה? האם יש הנחיות וולונטריות, למשל של איגוד הבנקים או איגוד חברות הביטוח?



בישראל טרם אומצה רגולציה בתחום ה-AI בשום מגזר. בשנת 2022 הכריזה הממשלה על תוכנית לאומית לבינה מלאכותית ויש עבודה שנעשית בנושא זה, אבל טרם גובשו הראות רגולטוריות שיש להן תוקף מחייב.

ברוב התחומים, כרגע הבחינה של אופן השימוש בכלי AI צריכה להיעשות לפי ההוראות הרגולטוריות הקיימות בהם - והתחום הפיננסי רווי בהוראות כאלה. לכן, השאלה כרגע היא כיצד השימוש ב-AI עומד בתנאי הרגולציה הפיננסית שקדמו לכניסת הטכנולוגיה הזו לחיינו.

בתחום ההשקעות, רשות ניירות ערך הלכה צעד אחד קדימה ופרסמה הוראה בדבר שירותים תוך שימוש באמצעים טכנולוגיים. הרשות קבעה כיצד יועצי השקעות יכולים לשלב בינה מלאכותית בשירות, בשלושת השלבים שהוגדרו גם בחקיקה בתחום: בירור צורכי הלקוח, בקביעת מדיניות ההשקעה ורמת הסיכון, והייעוץ עצמו. זו בעצם התאמה או יישום של הוראות חוק הסדרת העיסוק בייעוץ השקעות, בשיווק השקעות ובניהול תיקי השקעות, כך שיש כאן רק יישום של החוק הקיים.

נקודת המוצא ברגולציה במגזר הפיננסי בישראל היא שככלל, האחריות מוטלת על הגוף הפיננסי המפוקח בהתאם לרגולציה החלה עליו. אין בכך די כדי להגיד שהמגזר הפיננסי ערוך ל-AI, אבל בהחלט מספיק כדי לייצר למוסדות פיננסיים וחברות שפועלות בתחום חשיפות גם במישור הרגולטורי וגם בדין האזרחי, שחשוב להידרש אליהן.


מהם הסיכונים שבפני הגופים הפיננסיים בשל שימוש זה?

בנקים שמסתמכים על ניתוח סיכוני אשראי של כלי AI כדי לקבל החלטה אם להעמיד הלוואה, צריכים לקחת בחשבון שמערכת AI עלולה לסבול מהטיה שתוביל לאפליה נגד לווים שמשתייכים לקבוצה חברתית מסוימת. מערכות AI לומדות על העולם מתוך התבוננות בידע האנושי ובהתנהגות אנושית, כחלק מתהליך ה"אימון" של המערכת.

זה אומר שלפעמים הן עלולות לספוג התנהגויות אנושיות פסולות, כמו התנהגות מפלה כלפי קבוצה של אנשים. כחברה אנחנו לא רוצים לראות מצב בו אנשים המשתייכים לקבוצה אתנית מסוימת או לעדה מסוימת או לצבע עור מסוים, לא מקבלים אשראי מבנקים משום שמערכת ה-AI מזהה אותם כסיכון אשראי.

גוף השקעות שמשקיע כספים של לקוחות או כספי פנסיה, צריך לקחת בחשבון כשלים אפשריים בניתוחי AI שעלולים לפרש בצורה שגויה מקרים של תאימות סטטיסטית בין אירועים.

האתגרים הגדולים הם קביעת רמת הפיקוח האנושי על תוצרים של AI, והתחקות אחר תהליכי ניתוח וקבלת החלטות שלהם, כדי לוודא שכל השיקולים ראויים. בתחומים כמו ייעוץ השקעות או ייעוץ פנסיוני, חובה ששיקול הדעת יהיה בידי אדם בעל הכשרה מתאימה, ועליו לדעת מהם גבולות ההסתמכות על תוצרי AI. בשנים הקרובות נראה תביעות נזיקיות ואולי תובענות ייצוגיות שמייחסות כשלים בתפקוד של גופים פיננסיים בשל השימוש ב-AI, והם יצטרכו להראות שנקטו זהירות סבירה כדי להימנע ממצבים של אפליה, הטיה וניתוחים שגויים.


האם יש כיסוי ביטוחי לסיכונים אלה?

תחום הביטוח לסיכוני AI הוא שוק מתעורר, וכמה חברות ביטוח מציעות פוליסות לכיסוי סיכונים כאלה. ברור שכל התחום בחיתוליו ושהוא עתיד לעבור התפתחות רבה  בשנים הקרובות, כאשר שהסיכונים יתחוורו בצורה ברורה יותר. נכון להיום לא מצאנו שקיים תיעוד על כניסה של כיסויים ביטוחיים למגזר הפיננסי באופן ספציפי.


כיצד על המוסדות הפיננסיים להתמודד עם סיכונים אלה?



חשוב לבצע בדיקות קפדניות על הכלים שמוסדות כאלה בוחרים, גם ברמת תהליכי הפיתוח שלהם, כלומר: לקבל מהמפתחים אינדיקציות מתועדות לאמצעי זהירות מובנים ואמצעי בקרה על תהליכי עבודה של הכלים. יש לבחון את הכלים "על יבש" כדי לוודא פעולה תקינה בסביבה מבוקרת לפני שמשחררים אותם לשימוש בסביבת עבודה מסחרית.

יש ליישם תהליכי בקרה אנושיים על תוצרי הניתוח של ה-AI, כך שיוכח שהגוף הפיננסי לא הפקיד את שיקול הדעת בידי מערכת AI אלא רק נעזר בה. כל אלה עשויים לצמצם את החשיפה לממצאים של התנהגות בלתי זהירה ולצמצם את האחריות לטעויות אם כאשר אלה יתרחשו.

גופים פיננסיים צריכים תחילה להכיר את הסיכונים ולהבין אותם. הדבר חייב להיעשות בעבודה משותפת של מומחים לטכנולוגיה ושל משפטנים, כדי להעריך את החשיפות שיכולות להיווצר. בשלב הבא יש לקבוע סט של כללים פנים-ארגוניים לשימוש בכלי AI, בגישה שמבוססת סיכון אבל גם מבוססת תועלת. הגופים צריכים להגדיר לאילו פעולות נכון להחדיר כלי AI ולאילו לא, ולקבל את ההחלטה על בסיס איזון של סיכון מול תועלת.

השימוש בכלי AI חייב להיות מוסדר בתוך הארגון והשימוש צריך להיות רק בכלים אשר אושרו לשימוש על ידי גורמים בארגון המוסמכים לכך. הללו צריכים לייצר תהליך מובנה של בדיקת נאותות לכלי. לדוגמה: יש לאתגר בוט באמצעות צוות תקיפה טכני-משפטי שיעמיד אותו במצבים קיצוניים ויאתר כשלים.

כמו כן, חשוב לקבוע נהלי בקרה אנושית על התוצרים. האנשים הם בעלי הבינה שאנחנו סומכים עליה, וצוות מיומן צריך להיות מסוגל מצד אחד ליהנות מהחיסכון העצום בזמן והעלייה בפריון, ומצד שני להפעיל חשיבה ביקורתית על התוצרים ולחפש כשלים או תוצאות בלתי סבירות, בלתי הוגנות או בלתי חוקיות.


מה יכולים הלקוחות לעשות?



* לשים לב ולבדוק אם שירות ניתן באמצעות בינה מלאכותית או אדם; אם הדבר לא נאמר בצורה מפורשת - לשאול. אם יש מדיניות שימוש ב-AI שמתפרסמת בשירות אינטרנטי, כדאי לקרוא אותה.

* לא לנהות אחרי כל שירות שמוצע ב-AI - זה לא תמיד אומר שהוא טוב יותר. כדאי לנסות להבין מה הוא נותן לנו כצרכנים, אם הוא מוזיל או מייקר את השירות, מייעל אותו בצורה כלשהי, או אולי דווקא להיפך.

* כאשר השירות הוא משמעותי - לבקש מהספק מידע אודות מערכת ה-AI, תהליכי בקרת האיכות שעברה ומידת האמינות שלה.

* לברר מה מידת המעורבות האנושית בשירות שניתן בשילוב AI והאם ישנה בקרה אנושית של בעל מקצוע מיומן.

* להיות מודעים לסיכונים, לקרוא תנאי שימוש והגדרות פרטיות, להפעיל בקרה עצמית על המלצות שאנחנו מקבלים ממערכות AI ולא להסתמך עליהן בצורה עיוורת.


עו"ד עומר כרמל (צילום: אייל טואג)

הוספת תגובה

תגובות לכתבה:

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה