שחר ברכה, שותף ומוביל תחום AI, ענן ודאטה ב-Deloitte ישראל. קרדיט: דלויט
שחר ברכה, שותף ומוביל תחום AI, ענן ודאטה ב-Deloitte ישראל. קרדיט: דלויט

הקרב על חופש הידע

שחר ברכה - שותף ומוביל תחום AI, ענן ודאטה ב-Deloitte ישראל ולשעבר ראש רשות התקשוב הממשלתי - על הקלות הבלתי נסבלת של התשובה המנוסחת לעילא של המודלים הגדולים של ה-AI, ומעלה שאלה לגבי השקיפות של קבלת ההחלטות שמתווכות לנו את המידע

רן קידר |
נושאים בכתבה בינה מלאכותית

בשנות ה-90, כשהאינטרנט רק החל לחדור לבתים, לראשונה בהיסטוריה האנושית נוצרה תחושת שחרור אמיתית סביב המידע. כל תשובה הייתה במרחק חיפוש, כל שאלה יכלה לזכות למאה תשובות שהיו שונות, לפעמים סותרות או מאתגרות. החיפוש הפך למסע. למדנו לחשוב דרך קישורים, להצליב מקורות, לזהות מניפולציות ולבנות תודעה ביקורתית מתוך גישה חופשית. 

היום, בעידן הבינה המלאכותית, משהו יסודי משתנה. אנחנו לא מחפשים אלא שואלים. במקום מאה תשובות מקבלים רק אחת. מנוסחת היטב, נראית מוסמכת, לרוב משכנעת. 

וכאן מתחיל הפער. מה לא נאמר בה? מה הושמט? איזו זווית לא עברה את סף הבינה המלאכותית? אנחנו כבר לא רואים את כל הקישורים, לא בוחרים את המקורות ולא יודעים מה האלגוריתם סימן כ"לא רלוונטי" או "רגיש". מה שנראה כגישה מהירה לאמת הוא לעיתים קיצור דרך לאשליה של ידע. 

אנחנו רגילים לחשוב שהבינה המלאכותית מרחיבה את הידע, אך ייתכן שהיא דווקא מצמצמת אותו. לא מתוך כוונה רעה אלא מתוך מנגנון. אלגוריתמים שמבצעים תוך אלפית השנייה סינון, עיבוד, תיעדוף ולעיתים קרובות גם השמטה. 

לא מדובר באיזה חזון עתידי מאיים. ברוסיה, לדוגמא, הוחלט לחסום לחלוטין את ChatGPT מחשש להשפעה מערבית על תמימות האזרחים. בסין הרגולציה מחייבת כל חברת AI להגיש תכנים התואמים את ערכי המפלגה הקומוניסטית ומודלים שאינם עומדים בדרישות נחסמים או מוגבלים. 

מדובר לא רק בפיקוח אלא בעיצוב תודעתי מכוון שיוצר מערכת אוטונומית לכאורה, אך מוגבלת מבפנים ומצומצמת לרעיונות חיצוניים או מאתגרים. 

השאלה היא לא רק מה קורה ברוסיה או בסין, אלא מה יקרה במדינות המערב. האם גם בעולם הדמוקרטי מודלים יקודדו כך שיקדמו תכנים בהתאם לאינטרסים תאגידיים? האם אלגוריתמים שמשרתים יעדים מסחריים ינטרלו תכנים שנחשבים רגישים למפרסמים? ומה יעלה בגורל תחומי הליבה של החברה האנושית – חינוך, עיתונות, רפואה, משפט וכלכלה – אם יתבססו על תשתיות ידע חסרות שקיפות. 

כבר עכשיו ראינו שופטים ועורכי דין מצטטים פסקי דין שמעולם לא נכתבו, רופאים מחפשים אבחנות בצ'אט ומערכי חינוך שלמים בבתי ספר שנבנים בחוכמת (או בצנזורת) האלגוריתם. 

קיראו עוד ב"BizTech"

מנוע החיפוש הקלאסי לא מושלם, אבל הוא לפחות מציע גישה, מגוון תוצאות ובעיקר את זכות הבחירה. בבינה מלאכותית נקבל תשובה אחת שהיא אמנם מרשימה ושוטפת, אבל מעלימה את כל מה שנותר מאחור ובעיקר את השיקולים שמאחורי ההחלטות. 

זו לא רק שאלה טכנית, זו שאלה של שליטה. האלגוריתמים לא נוצרים בוואקום ועלותם גבוהה מאוד. ממשלות עלולות להכתיב מדיניות תוכן, חברות פרטיות עלולות להעדיף את שורת הרווח וגופים עסקיים את תדמיתם הנקייה. 

וכך, בתוך ההתלהבות הגדולה שלנו מהצעצוע החדש, אנחנו מפספסים את המציאות החדשה שמתגבשת כאן. מציאות של ידע סלקטיבי. לא עיתונאים, לא חוקרים, לא אינסוף אפשרויות אלא קוד. מי בנה אותו? מי בחר את מקורותיו? מי קבע מה לגיטימי? 

כולם מדברים על האתיקה בבינה המלאכותית, אבל הגיע הזמן לדבר גם על הכוח שלה. זו שאלה של דמוקרטיה, של חירות. לא מה ראוי לדעת אלא מה ניתן לדעת. אם פעם נלחמנו על חופש הביטוי, ייתכן שהמאבק הבא יהיה על חופש הגישה לידע. לא רק לומר את דעתך, אלא לדעת בכלל שיש דעה אחרת.

לקריאה נוספת: 

האם גוגל הפכה להיות "שחקן רע"?

הוספת תגובה

תגובות לכתבה:

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה