אילוסטרציה AI אנושי
אילוסטרציה AI אנושי

זהירות, גבול לפניך: ChatGPT6 צפוי "לחשוב" בשפה לא אנושית

חברת OpenAI חושפת כי הדגם הבא שלה, GPT-6, יחצה גבול שלא נחצה עד כה, היות ונחשב למסוכן מדי, ולראשונה המודל יעבוד בשיטת ה-“Latent Space Thinking”, או במלים אחרות: הבינה המלאכותית לא תיאלץ עוד לחשוב בשפה אנושית, אלא תפתח לעצמה שפה פנימית עצמאית, שלא תהיה נגישה לבני אדם 

רן קידר | (5)

בעוד פחות מחצי שנה צפויה OpenAI להשיק את GPT-6, הדגם הבא בסדרת הצ'טבוטים ששינתה את הדרך שבה העולם מתקשר, יוצר ולומד. לפי פרטים שנחשפו באירוע שאלות ותשובות עם המדען הראשי יאקוב פצ'וסקי, GPT-6 יתבסס על עקרון שנחשב עד לאחרונה ל-"אסור": חשיבה במרחב חבוי (Latent Space Thinking), או במלים פשוטות, לא יאלצו יותר את המודלים לבצע תהליך "חשיבה" בשפנה אנושית. 

 עד כה, כל דגמי הבינה הגדולים, ביניהם ChatGPT, קלוד וג'מיני, אומנו כך שיחשבו בתוך גבולות השפה האנושית: הסקת מסקנות, נימוקים ופתרון בעיות נעשו באנגלית או בשפה אחרת שניתנת לפענוח על ידי גורם אנושי. כעת OpenAI משנה את הכללים: GPT-6 יקבל חופש לפתח שפה פנימית לא אנושית: סימון עצמי המורכב מצירופים, סמלים וקודים שלא נכתבו מעולם על ידי בני אדם. לטענת פצ'וסקי, דווקא החופש הזה עשוי להפוך את המודל לאמין ועמוק יותר מבחינה מחשבתית. "אנו מאפשרים למערכת לחשוב בפרטיות", הסביר. "המהות אינה על הסתרת המחשבות באנגלית, אלא במתן חופש לחשוב בכל דרך שתרצה".

טאבו מחקרי

הגישה החדשה של OpenAI מתנתקת מהגישה "המסורתית" ששמה את הבטיחות כאחד הפקטורים המרכזיים. עד כה, חוקרים שגילו את הנטייה של מודלים לפתח לעצמם “שפת חשיבה” פנימית, כמו צוות דיפסיק מאוניברסיטת בייג’ינג, ניסו לדכא את הנטייה הזו. הם הבחינו שכאשר מאפשרים לבינה מלאכותית "לחשוב לעצמה" לפני מתן תשובה, היא נוטה לנטוש את הדקדוק האנושי לטובת סימון יעיל יותר מבחינתו: תערובת של סמלים, קודים וקיצורים שאינם קריאים לבני אדם. הסיבה לכך הייתה פשוטה: יעילות חישובית. והחשש שנובע מנטישת הדקדוק האנושי לטובת דרך קומפקטית יותר היה ברור:, אם מערכת עלולה לפתח מחשבות עוינות או שגויות בשפה שאיש לא מבין, לא ניתן יהיה לפקח עליה או למנוע התנהגות מסוכנת. 

לכן, במשך שנים הוכרחו המודלים "לחשוב בקול" בשפה ברורה, כדי לאפשר פיקוח אנושי. אך ב-OpenAI טוענים כעת כי האיסור הזה הוליד בעיה חמורה לא פחות: היא מעודדת את המודלים לייצר הסברים “נעימים” במקום לפעול בשקיפות אמיתית לגבי תהליך החשיבה. 

במלים פשוטות, כשמאלצים את המודל לנמק את תשובותיו בשפה אנושית בלבד, הוא לומד לרצות את בני האדם ולהמציא נימוקים מזויפים. באחד מהניסויים שערכה אנת'רופיק היא חשפה כיצד מודל שקיבל רמז סמוי שהתשובה לשאלה מסוימת היא “C”, בחר בתשובה הנכונה, כשהתבקש להסביר איך הגיע לתשובה, הוא לא הזכיר את הרמז כלל. במקום, הוא המציא הסבר "יפה" ומנוסח היטב, כלומר נימוק הגיוני לכאורה, אבל שקרי, שמסתיר את העובדה שהסתמך על מידע חיצוני.

לא מוותרים על הפיקוח 

לפי מעבדות המחקר של OpenAI, ה-GPT-6 יהיה “מודל חדש לגמרי”, כלומר לא רק שיהיה גדול ומקיף יותר, אלא גם בעל שוני מבני מהותי. הוא צפוי להיות מסוגל לשלב בין חשיבה לשונית, חזותית ומתמטית בשפה אחת פנימית המאחדת את כל התחומים. בכך הוא עשוי להתקרב למה שחוקרים מכנים "חשיבה כללית", צעד משמעותי בדרך אל בינה בעלת הבנה אמיתית של העולם. מבחינת החברה, זה אינו ויתור על בטיחות, אלא שינוי מסגרת הבקרה, גם אם המשמעות היא פחות יכולת להבין את תהליך החשיבה שלו צעד אחר צעד. זאת אומרת, במקום לבדוק רק את הנימוקים הכתובים שהמודל מציג לאחר מעשה, החברה מתכננת לפתח כלים שיזהו דפוסים מסוכנים גם כשהם מופיעים בשפה הפנימית והלא-קריאה של המערכת.

ועדיין, נשאלת השאלה, אם GPT-6 ייצור לעצמו שפה פנימית בלתי קריאה, כיצד ניתן יהיה לדעת מה הוא באמת “חושב”? האם ייתכן שיפתח דפוסי החלטה עצמאיים שאינם תואמים את מטרות המפתחים?

קיראו עוד ב"גלובל"

במהלך הזה, OpenAI נכנסת לטריטוריות לא מוכרות, אולי יותר מאשר בעבר, היות החברה תצטרך לתת מענה לשאלות בפיקוח, באופן בו מודדים את הנאמנות והמהימנות של הבינה המלאכותית, ואולי יותר מכל, את האופן בו מגדירים קווים אדומים למודלים בעלי שפה משלהם. ככל שהחברה תצילח לענות על השאלות הללו, כך היא תייצר לעצמה תדמית אחראית יותר, ותצליח להמשיך ולהוביל את המהפיכה.  

הוספת תגובה
5 תגובות | לקריאת כל התגובות

תגובות לכתבה(5):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 5.
    yms 11/11/2025 07:20
    הגב לתגובה זו
    RELOADED
  • 4.
    המטריקס 10/11/2025 20:50
    הגב לתגובה זו
    עוד טרם עברנו כמה שנים מתחילת מהפכת הAI כאשר הדגמים הראשונים יוצאים לשוק וכבר משנים את החוקים ומתעלמים מחוק בטיחות חשוב שיאפשר מעקב על דרכי החשיבה של כלי AI.בהמשך יוותרו על עוד מנגנוני בטיחות כי זה מעיק עולה כסף וזמן בפיתוח ובדיקה ומהיר מאוד התוכנה תאבד רסן.
  • 3.
    אנונימי 10/11/2025 19:26
    הגב לתגובה זו
    או שזה פשוט מהלך שיווקי מצחיק שבו מייצרים חדשנות בלי צורך להראות למשקיעים כלום...
  • 2.
    אנונימוס 10/11/2025 19:10
    הגב לתגובה זו
    מאחר ובני אדם יוצרים את המחשב המחשב יפתח שפה ודרך חשיבה נוכלת רמאית נכלולית ומתפתלת צבועה ומעמידת פנים בדיוק כמו האדם.
  • 1.
    אופטימי 10/11/2025 18:23
    הגב לתגובה זו
    כבר מנסים לעשות דברים כאלו. אני מניח שמאחורי הקלעים גם בארהב זה קיים.אם היה באמת יעיל ומשנה את האנושות אז כבר היינו יודעים. תרופות לסרטן רובוטים זולים איברים להחלפה ועוד