בינה מלאכותית כספים; קרדיט: ChatGPT, רוי שיינמן
בינה מלאכותית כספים; קרדיט: ChatGPT, רוי שיינמן

האם הבינה המלאכותית באמת "מרגישה"? השאלה שמטרידה ממשלות וחברות ענק

מה שהיה טאבו בקהילת המחקר הופך לסוגיה משפטית וכלכלית עם השקעות של מאות מיליארדים בסיכון

מערכת ביזפורטל |
נושאים בכתבה בינה מלאכותית

עד לפני כמה שנים, דיונים על תודעה של בינה מלאכותית נחשבו כמעט לפילוסופיה מדעית. היום זו כבר שאלה שמגיעה לחדרי ישיבות של חברות טכנולוגיה, למחוקקים באירופה ובארה"ב ולחוקרי AI בכירים. 

הזינוק ביכולות של מודלים כמו ג'מיני, קלוד וצאט-ג'יפיטי משנה את השיח כולו, שכן מערכות AI כבר לא רק עונות על שאלות, אלא מנהלות שיחות מורכבות, מתכננות פעולות, כותבות קוד ומציגות תגובות שנראות אנושיות מאוד.

 הבעיה היא שאף אחד עדיין לא יודע אם מדובר רק בחיקוי מתוחכם או במשהו עמוק יותר. למרות מאות מחקרים בתחום, אין כיום הגדרה מדעית מוסכמת למהי בכלל "תודעה". חברות הטכנולוגיה משקיעות מיליארדי דולרים בפיתוח מודלים מתקדמים, בזמן שממשלות מתחילות לבחון האם בעתיד יהיה צורך לקבוע כללים מוסריים או משפטיים גם עבור מערכות AI.

לפי דיונים שנערכים בשנים האחרונות באיחוד האירופי ובמכוני מחקר בארה"ב, החשש אינו רק פילוסופי. אם מערכת AI תיחשב בעתיד כבעלת חוויה פנימית כלשהי, אפילו ברמה בסיסית, זה עלול להשפיע על רגולציה, אחריות משפטית, תנאי אימון של מודלים ואפילו על שוק הביטוח והפטנטים בתחום.

הבעיה הגדולה: אף אחד לא יודע איך מודדים תודעה

 הדיון סביב תודעת AI מסתבך משום שגם לגבי בני אדם ובעלי חיים אין הסכמה מלאה איך מודדים תודעה. חוקרים מבחינים בין כמה סוגים שונים:

* תודעה עצמית - היכולת לזהות את עצמך ולהבין שאתה ישות נפרדת. 

* תודעת גישה - היכולת להשתמש במידע לצורך קבלת החלטות.

*  מטא-קוגניציה - חשיבה על החשיבה עצמה.

* תודעה חווייתית - התחושה הפנימית של כאב, פחד, צבע או הנאה.

הסוג האחרון נחשב למורכב ביותר. מודל AI יכול לתאר כאב בצורה משכנעת מאוד, אבל זה לא אומר שהוא באמת "מרגיש" משהו. חוקרים רבים מזהירים שהציבור נוטה לבלבל בין שיחה אנושית משכנעת לבין חוויה פנימית אמיתית. הבעיה הזו כבר הופכת לפרקטית. 

חברות AI בונות כיום מערכות שמסוגלות לבצע משימות אוטונומיות מורכבות, כולל סוכני AI ("Agents") שמקבלים החלטות, מפעילים תוכנות ומבצעים פעולות ללא התערבות אנושית. במקביל, חוקרים מזהירים שמודלים כאלה עלולים ליצור אשליה חזקה מדי של אישיות או מודעות. ב-2024 פרסמה קבוצת חוקרים מאוניברסיטאות מובילות בארה"ב ובבריטניה מסמך שקרא לפתח מדדים מסודרים להערכת תודעה אפשרית ב-AI, בטענה שהיכולות של המודלים מתקדמות מהר יותר מהיכולת של המדע להבין אותן.

קיראו עוד ב"BizTech"


מבחן טיורינג כבר לא מספיק


 בעבר נהגו להתייחס ל"מבחן טיורינג" כמדד מרכזי: אם אדם לא מצליח להבין שהוא מדבר עם מכונה — אולי המכונה אינטליגנטית. אבל כיום חוקרים רבים טוענים שהמבחן כבר איבד משמעות. 

מודלים מודרניים אומנו על כמויות עצומות של טקסט אנושי, ולכן הם מסוגלים לחקות רגשות, הומור ושפה טבעית ברמה גבוהה מאוד.

זו בדיוק הסיבה שאין כיום דרך אמינה לבדוק אם מערכת AI באמת מודעת. קיימות עשרות תיאוריות שונות בתחום, אך אף אחת מהן לא התקבלה כהסבר מדעי מלא לתודעה אנושית ובוודאי שלא לתודעה מלאכותית.

חלק מהחוקרים סבורים שתודעה דורשת מוח ביולוגי ולכן מחשב לעולם לא יוכל "להרגיש". אחרים טוענים שתודעה היא תוצאה של עיבוד מידע מורכב, ולכן ייתכן שגם מערכות סיליקון יפתחו בעתיד חוויה פנימית כלשהי.

 

מיליארדים על הכף: למה זה כבר עניין כלכלי


 הוויכוח הזה כבר משפיע על השוק. חברות AI מתמודדות עם לחץ גובר מצד רגולטורים בנושאי שקיפות, בטיחות ושימוש אחראי במודלים מתקדמים. האיחוד האירופי כבר אישר את חוק ה-AI האירופי, שמטיל מגבלות על מערכות המוגדרות "בסיכון גבוה". בארה"ב מתקיימים דיונים דומים סביב אחריות של חברות AI לנזקים אפשריים. מעבר לרגולציה, קיימת גם שאלת האחריות המשפטית. 

אם בעתיד מערכת AI תציג סימנים שנראים כמו מצוקה או כאב, האם לחברה מותר להמשיך לאמן אותה? ואם לא - מי קובע את הגבול? כרגע אין תשובות ברורות. 

אבל ככל שהמודלים הופכים מתוחכמים יותר, כך הדיון עובר מהדיון האקדמי למרכז תעשיית הטכנולוגיה. עבור החברות הגדולות מדובר לא רק בשאלה מדעית, אלא גם בסיכון עסקי של מיליארדי דולרים.