
"אני מתנגד לחוקים מחייבים ונוקשים בתחום ה-AI, צריך לקבוע כללים אתיים"
מיליארדי אנשים מרחבי העולם משתמשים מדי יום בכלי ה-AI השונים והשימוש בהם אינו מבוקר ויכול לגרום לנזקים כבדים- אז מי נושא באחריות? האם שוק ההון פגיע למניפולציות והאם חקיקה נוקשה היא הדרך לווסת את השימוש ב-AI?
התפוצצות מהפכת ה-AI מעלה זה מכבר קריאות להגבלת השימוש בטכנולוגיה, כאשר יותר ויותר מבינים את הסיכונים הרבים הטמונים בה. האיחוד האירופי מוביל את החקיקה הרחבה ביותר באמצעות ה-AI Act, שנותן מסגרת רגולטורית מקיפה. האיחוד האירופי מבסס את החוק על סיווג מערכות בינה מלאכותית לפי רמות סיכון, מטיל איסורים מוחלטים על שימושים מסויימים ב-AI, כמו למשל לצורך ביצוע מניפולציות על משתמשים או כמו שימוש במערכות זיהוי ביומטרי בזמן אמת, כמו זיהוי פנים, במרחבים הציבוריים. ישנן גם דרישות מחמירות של שקיפות, פיקוח אנושי ואחריות בתחומים רגישים כגון בריאות, חינוך ואכיפת חוק.
יוזמת החקיקה הזו בוצעה באביב 2024, בשיא הבאז סביב הבינה המלאכותית הג'נרטיבית בדיוק כאשר היא החלה להיות בשימוש בכל מקום ובכל תחום. הנתונים היבשים מראים לנו כי 800 מיליון איש עושים שימוש שבועי ב-Chat GPT, בכלי Gemini של גוגל משתמשים מדי שבוע 650 מיליון ובקלוד של אנתרופיק משתמשים 186 מיליון מדי שבוע.
כאשר השימוש כה נרחב והשיח על היכולות של הכלים האלו, ישנן יוזמות חקיקה ורגולציה, כמו זו של האיחוד האירופי, שעולות. כדי להבין אתה הקשיים המשפטיים שעלולים לעלות עקב שימוש בבינה מלאכותית, שוחחנו עם פרופסור אביב גאון מבית ספר הארי רדזינר למשפטים, שבאוניברסיטת רייכמן.
מה אתה חושב על רגולציה בכל הנוגע ל-AI?
- Baz דורגה ראשונה בעולם בבדיקות קוד שנכתב על ידי AI
- הסטארטאפ Guidde, המטמיע AI בארגונים, גייס 50 מיליון דולר
- המלצת המערכת: כל הכותרות 24/7
"אני אישית מתנגד לחוקים מחייבים ונוקשים בתחום הזה. אני מאמין שהמקום הנכון הוא בקביעת כללים אתיים והנחיות מקצועיות על ידי לשכות, איגודים וגופי מקצוע. העיקרון המרכזי צריך להיות מניעת הסתמכות עיוורת על גורם אחד. תפקיד הארגון הוא לחנך את העובדים, להעניק להם כלים מתקדמים, להסביר מה מותר ומה אסור לעשות עם מערכות AI, "להצביע גם על החולשות והמגבלות שלהן, ולא לאמץ גישה פשטנית של "אסור להשתמש."
בעלי מקצוע רבים עושים שימוש ב-AI במקרה של טעות, על מי מושתת האחריות המשפטית?
"האחריות היא תמיד על איש המקצוע למשל על הרופא או העורך הדין . במקרה של עריכת דין, מדובר בעיקרון יסוד: לא ניתן לתת ייעוץ משפטי על ידי גורם שאינו בן אדם, ועורך הדין נושא באחריות המקצועית המלאה. יש עורכי דין שיטענו שאסור להשתמש בהם כלל, אך גישה זו אינה מציאותית. איסור מוחלט לא ימנע את התופעה ולא יעזור, מכיוון שאנשים ממילא יעשו בהם שימוש."
- Cylake של ניר צוק מגייסת 45 מיליון דולר בסבב סיד
- אינטל: מעבדי CPU חוזרים למרכז הבמה בעידן ה-AI
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
לפי גאון, הדרך הנכונה להתמודד עם המגמות הקיימות כיום היא באמצעות הסבר כיצד לעשות שימוש ראוי בכלים אלו. "קודם כל, חיוני להבין מהם גבולות השימוש. למשל אם יש בידי מידע סודי של לקוח, אסור להעלות אותו לצ'אט פתוח, אלא רק במסגרת תוכנה משרדית פנימית שמבטיחה שהשימוש יישאר חסוי ולא ייחשף לצדדים חיצוניים. חלק מההבנה הזו כולל הכרת החולשות של המערכות הללו - מה אפשר לעשות ובמה לא. יחד עם זאת, בטווח הארוך הכלים הללו יאפשרו לנו לתת חוות דעת טובות יותר ולערוך מחקרים משפטיים מעמיקים יותר."
גאון נותן דוגמה בהנחיות שפרסמה לשכת עורכי הדין של ניו יורק, שקבעה כי אי אפשר לאסור את השימוש בכלי AI, אך האחריות המלאה היא על המשרד ועל עורכי הדין עצמם. בעיני גאון ברוב המקרים מומלץ לנקוט בצעדים הבאים: להודיע ללקוח שאתה משתמש בכלים אלה, אם הלקוח מתנגד - להימנע משימוש ולבצע בקרה ובדיקה קפדנית של התוצרים שמתקבלים מהמערכות "היום הרבה חברות מסחריות משתמשות ב-AI כנציג שירות לקוחות, וזו דרישה אתית ומשפטית להצהיר שהבוט הוא לא אנושי. כפי שעורך דין מנוסה היה מתייחס למתמחה, שואל שאלות, בודק ומוודא - כך יש לנהוג עם תוצרי הבינה המלאכותית. זוהי האחריות המקצועית של עורך הדין כלפי הלקוח.
דיפ-פייק בתקופת בחירות
יוזמת חקיקה נוספת היא של מדינת ניו יורק, המקדמת רגולציה ממוקדת יותר באמצעות חקיקה המחייבת חברות בינה מלאכותית גדולות ליישם מנגנוני בטיחות, ניהול סיכונים ודיווח על אירועי כשל חמורים. איטליה, מצדה, אימצה חוק לאומי משלים ל-AI Act של האיחוד, המעמיק את ההסדרה בתחומים שיפוטיים וחברתיים ומטיל סנקציות פליליות ואזרחיות על שימוש פוגעני בבינה מלאכותית, לרבות יצירה והפצה של תכני דיפ־פייק מזיקים. דנמרק בחרה להתמודד עם תופעת הדיפ פייק בגישה שונה- באמצעות תיקוני חקיקה המעניקים הגנה משפטית על דמותם, קולם וזהותם הדיגיטלית של אזרחים, במטרה להתמודד עם ניצול טכנולוגיות בינה מלאכותית שמסוגלות לייצר זיופים דיגיטליים.

דיפ פייק, אווטרים, הם בין הבעיות ש-AI יכול לגרום להן בשנת בחירות. האם האחריות משפטית היא אצל מי שמשתמש בבינה מלאכותית כדי להפיץ מסרים שקריים? או האם האחריות היא על החברות, כמו open AI או אנטרופיק?
"התשובה היא כן. ברור שמי שמפיץ מידע באמצעות רשתות או כל פלטפורמה ובאמצעות ה-AI, יכול להיות אחראי מבחינת התוצאות של המסרים. הכלי של הבינה המלאכותית הוא מעבר לטכנולוגיה, ויש למשתמש חובות אתיות ומשפטיות להבין את היכולות של הכלים האלה, ולאור השיח שאנחנו רואים בארץ ובעולם צריך להבין שהכלים הללו הם מוטים, ולכן השימוש בהם יכול להביא לתוצאות שהן לא נכונות, שרירותיות ומוטעות. כל איש תקשורת נושא באחריות לציבור שמאזין או צופה. ככה גם אצל כל אדם שמשתף מסרים, אני יכול לעשות שימוש באיזה כלי שאני רוצה, אבל ברגע שאני מפרסם, אני צריך להיות אחראי לתוצאות משפטיות וגם להפרה של כללי אתיקה."
הדיון מתייחס למצב שבו אנשי ציבור ועיתונאים עושים שימוש בכלים ומפרסמים את הממצאים בלי לתת גילוי נאות על ה-AI למעשה, "במצב שבו יש יוזרים אנונימיים, ההנחה הייתה שמאחוריהם יש בן אדם. כבר בבחירות בארה"ב ב-2016 וב-2020 היו יוזרים שלא היה מאחוריהם שום דבר אלא בוטים שהופעלו על ידי גורמים עלומים והם הפיצו אינפורמציה. אחרי הבחירות ב-2016 ניסו לטפל בזה בארה"ב, ואחת הדרכים שניסו לטפל היא חובת הגילוי נאות, לציין שהבוטים לא אנושיים."

האם יש משהו שהמדינה יכולה לעשות כדי להתמודד עם זה? חוקים שניתן לחוקק ולאכוף?
"אכיפה זה כבר סיפור אחר. היום יש יותר דרישה לנסות ולנטר את הבוטים שהם יותר בעייתיים, כאלה שלא יודעים מאיפה הם באים, חשבונות מרוסיה או איראן, ולהוריד אותם. חלק מהמנגנונים מייצרים אכיפה על ידי הטלת סנקציות או קנסות על הגופים, בין אם הן הרשתות החברתיות או מול החברות המסחריות. הבעיה היא של הרשתות החברתיות שלא רוצות לאכוף את הכללים האלה, כי זה מצריך הרבה עבודה ומאמצים כדי לקיים את הבחינה."
האם בינה מלאכותית יכולה לבצע מניפולציות בשוק ההון?
"בהחלט כן. בעולם הפינטק, תופעה זו קיימת כבר כעשור. חשוב להבין שבינה מלאכותית אינה תחום חדש - היא קיימת עוד משנות ה-50. מה שהשתנה בשנות ה-2000 הן יכולות העיבוד המתקדמות מאוד שפתחו את הדלת למודלים מתוחכמים. כבר בתחילת העשור הקודם, בדרום קוריאה למשל, עבדו עם טכנולוגיות של Machine Learning ומודלים מתקדמים של Deep Learning ולמעשה, כבר אז פותחו מודלים לזיהוי מניפולציות בשוק.
כיום, הדרך להתמודד עם האתגר היא שהגופים הרגולטוריים והפיננסיים במשק יבינו לעומק את המערכות הללו וילמדו כיצד לזהות מניפולציות. קיים שיח ער בנושא זה בשוק, והגורמים הרלוונטיים מודעים למורכבות. חברות רבות כבר עושות שימוש בכלי AI והן מבינות מגמות ודפוסים. בכך שהן מסוגלות לזהות וגם לבצע מניפולציות. המפתח הוא המשך פיתוח יכולות הזיהוי והפיקוח."
אי אפשר לבסס חוות דעת רק על AI
השימוש בבינה מלאכותית הולך וגובר גם בעולם הרפואה והוא מעורר כמה שאלות. ביניהן, האם מערכת AI מספקת המלצה רפואית האם היא יכולה להחליף איש מקצוע? ואם מתרחשת טעות, על מי מוטלת האחריות: על המוסד הרפואי שהטמיע את המערכת, או על חברת הטכנולוגיה שפיתחה אותה?
פרופ' גאון מודה כי הוא כבר עושה שימוש אישי בכלי AI במצבים רפואיים. "לעיתים אני מזין לצ’אט את האבחנות שקיבלתי מרופא, רק כדי לראות אילו תובנות נוספות מתקבלות. אחרי תאונת דרכים, למשל, הזנתי את המצב הרפואי וקיבלתי הערכה לגבי זמן החלמה אפשרי. כל עוד המערכות הללו מספקות מידע מדויק, עדכני ומבוסס, הן יכולות לשמש כלי עזר משמעותי."
מי נושא באחריות אם רופא מקבל החלטה בהתבססות על בינה מלאכותית?
"אחד האתגרים המרכזיים הוא ההבנה שבסופו של דבר יש לייצר מערכות ניטרליות ככל האפשר. לאורך השנים שמענו, למשל, טענות כלפי אפליקציות ניווט כמו Waze, שלכאורה מנתבות נהגים לצירים מסוימים, כמו איילון, כדי לחשוף אותם לשלטי פרסום. אלו היו רק שמועות אבל זה מעלה את השאלה שעולה אצל רבים והיא את מי המערכת משרתת - את המשתמש, את הארגון או את הגוף המסחרי שמאחוריה?
הדרך להתמודד עם הטיות כאלה אינה להימנע מהטכנולוגיה, אלא להטמיע אותה בזהירות, תוך ביצוע תהליכי וריפיקציה ובקרה. אני תומך בשימוש בכלי AI ואף מעודד סטודנטים להיעזר בהם, אך יש קו אדום ברור: אסור שהרופא יבסס את חוות הדעת המקצועית שלו אך ורק על פלט של מערכת בינה מלאכותית.
מבחינת פרופסור גאון, הפיתרון צריך לבוא מתוך גופי הבריאות, בומקרה של ישראל, קופות החולים הגדולות, שבעיניו צריכות לעשות את הקפיצה הטכנולוגית ולפתח מערכות פנימיות משלהן שיוכלו לבטל את ההטיות. "אלו צריכות להיות מערכות המבוססות על הבנה עמוקה של התהליכים, הנתונים וההטיות האפשריות. אם מנטרלים את ההטיות, הכלי הופך לעוצמתי באמת - כזה שיכול לזהות דפוסים ודגלים אדומים שרופא אנושי פשוט לא יכול לראות. אף רופא, מוכשר ככל שיהיה, לא מסוגל לעבור על כל ההיסטוריה הרפואית והתרופתית של מטופל לאורך עשרות שנים. AI כן מסוגל לכך, וזה יתרון אדיר עבורנו כמטופלים."
"רופא ממילא קורא מאמרים מדעיים, סקירות ומחקרים על מחלות. מה ההבדל המהותי בין קריאת מאמר לבין קבלת תשובה כללית לשאלה רפואית באמצעות צ’אט מבוסס AI ? בסופו של דבר, אני סומך על המקצועיות של הרופא. יש היום מסה אדירה של מידע, ותפקידו של הרופא הוא לסנן, לפרש ולהתאים את הידע למטופל הספציפי."
בסופו של דבר אומר גאון, השימוש בבינה מלאכותית אינו שונה מהותית משימוש בגוגל או בכל מערכת מידע אחרת, ומוסיף כי "בינה מלאכותית היא כאן כדי להישאר. השאלה האמיתית היא לא אם להשתמש בה, אלא איך להשתמש בה נכון."