OpenAI משיקה מודלים חדשים המחקים תהליכי חשיבה אנושית

המודלים o3 ו-o4-mini משלבים לראשונה עיבוד חזותי בתהליכי החשיבה בעוד התחרות בשוק מתגברת, החברה מכוונת גם לתחום התכנות עם Codex CLI בקוד פתוח

אדיר בן עמי |

OpenAI הכריזה על שני מודלי בינה מלאכותית חדשים המיועדים לחקות תהליכי חשיבה אנושית ולהתמודד עם משימות מורכבות בתחומי הקוד והעיבוד החזותי. המהלך מגיע בתקופה של תחרות מחודשת בשוק הבינה המלאכותית בארה"ב ובסין.


המודל הראשון, המכונה o3, משקיע זמן רב יותר בחישוב תשובות לפני שהוא מגיב לבקשות המשתמשים. מטרתו לפתור בעיות מורכבות רב-שלביות בתחומי המדע, המתמטיקה והתכנות. במקביל, החברה משיקה את o4-mini, מודל קומפקטי וזריז יותר המציג ביצועים טובים בקטגוריות דומות. שני המודלים החדשים כבר זמינים למשתמשים בתשלום של OpenAI. הם מהווים את מודלי החשיבה הראשונים של החברה המסוגלים להשתמש בכל הכלים של ChatGPT, כולל גלישה באינטרנט ויצירה וניתוח של תמונות.


חידוש משמעותי נוסף הוא שאלו המודלים הראשונים מבית OpenAI המשלבים מידע חזותי בתהליך החשיבה. יכולת זו מאפשרת למערכות החדשות לעבד תמונות מטושטשות, לסובב או להגדיל תצלומים במהלך ביצוע משימות.


OpenAI הציתה את שיגעון הבינה מלאכותית הג'נרטיבית בסוף 2022 עם השקת ChatGPT, שהופעל במקור על ידי מודל GPT-3.5. מאז, החברה שחררה סדרה של מערכות מתוחכמות יותר, כולל מספר מודלי חשיבה. עם זאת, החברה מתמודדת עם לחץ גובר מצד מתחרים כמו DeepSeek הסינית, Anthropic וxAI של אילון מאסק. חברות אלו השיקו בעקביות מודלי בינה מלאכותית בעלי יכולות מתקדמות דומות.


תכנות בפרט הפך ליישום שצומח במהירות עבור בינה מלאכותית ג'נרטיבית - ולשדה קרב מרכזי עבור OpenAI, אנתרופיק וגוגל הדגישו את יכולות התכנות של מערכות הבינה המלאכותית החדשות שלהן. סטארטאפים אחרים, כולל Anysphere יצרנית Cursor, צברו אף הם תאוצה עם כלי בינה מלאכותית למתכנתים.


כדי להתחרות טוב יותר בשוק הצפוף הזה, OpenAI הכריזה על השקת Codex CLI, סוכן בינה מלאכותית המיועד לעבוד עם מודלים כמו o3 ולסייע לאנשים במשימות תכנות. המוצר הוא קוד פתוח, כלומר הוא יהיה זמין בחינם למשתמשים. הוא גם פועל ישירות על המחשב של המשתמש, ועובד דרך תוכנת המסוף של המכשיר.


סם אלטמן, מנכ"ל OpenAI, אמר בעבר כי החברה עובדת על גרסה פתוחה של מודל חשיבה שתשוחרר בחודשים הקרובים, בעקבות ההצלחה הויראלית של DeepSeek עם המערכת שלה בקוד פתוח, R1.  אלטמן גם ציין כי OpenAI תשחרר את GPT-5, מודל חדש מצופה מזה זמן רב, "בעוד מספר חודשים". 

קיראו עוד ב"BizTech"

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.

סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.