OpenAI רוכשת את Windsurf תמורת 3 מיליארד דולר: המטרה להפוך את הצ'אט למתכנת

אדיר בן עמי |
נושאים בכתבה OpenAI ChatGPT

חברת OpenAI, המובילה בתחום הבינה המלאכותית (AI) עם ה-ChatGPT, רוכשת את הסטארט-אפ Windsurf, שפיתח כלי קידוד מבוסס AI שנקרא בעבר Codeium, תמורת כ-3 מיליארד דולר. זו הרכישה הגדולה ביותר בתולדות OpenAI. העסקה טרם נסגרה רשמית.

מי היא Windsurf?

Windsurf, ששמה הרשמי הוא Exafunction Inc, מתמקדת בפיתוח כלים מבוססי בינה מלאכותית לסיוע למפתחי תוכנה. המוצר המרכזי של החברה הוא כלי קידוד מתקדם המאפשר למשתמשים לכתוב קוד באמצעות הנחיות בשפה טבעית, תוך שיפור יעילות תהליכי הפיתוח. הכלי, שהיה ידוע בעבר בשם Codeium, זכה לפופולריות בקרב מפתחים בשל יכולותיו לזרז משימות מורכבות כמו כתיבת קוד, איתור באגים והשלמת שורות קוד באופן אוטומטי.

לאחרונה, Windsurf ניהלה מגעים עם קרנות הון סיכון כמו Kleiner Perkins ו-General Catalyst לגיוס הון בשווי של 3 מיליארד דולר. בשנה שעברה, היא גייסה בשווי 1.25 מיליארד דולר בהובלת General Catalyst.

גיוס ההון האחרון של OpenAI

הרכישה מגיעה לאחר ש-OpenAI השלימה לאחרונה סבב גיוס הון ענק בסך 40 מיליארד דולר, בהובלת SoftBank Group Corp., שהעניק לחברה שווי שוק של 300 מיליארד דולר – מה שהופך אותה לאחת מחברות הטכנולוגיה היקרות בעולם. סבב הגיוס, שהושלם בחודשים האחרונים, כלל השתתפות של משקיעים מובילים נוספים, והוא נועד לתמוך בהרחבת פעילות החברה, תוך התמודדות עם תחרות הולכת וגוברת מצד חברות כמו Anthropic, Google ומיקרוסופט.

הרכישה מתרחשת על רקע תחרות עזה בשוק כלי הקידוד מבוססי AI. חברות כמו Anthropic, מתחרה ישירה של OpenAI, ו-GitHub שבבעלות מיקרוסופט (המשתפת פעולה עם OpenAI), מציעות כלים דומים למפתחים, כמו GitHub Copilot. במקביל, סטארט-אפים חדשים כמו Anysphere, מפתחת הכלי Cursor, מושכים השקעות משמעותיות ומרחיבים את התחרות. כלים אלה משנים את הדרך שבה מפתחים עובדים, ומאפשרים להם לחסוך זמן ולהתמקד במשימות יצירתיות יותר.

עבור OpenAI, רכישת Windsurf היא מהלך אסטרטגי לחיזוק היצע המוצרים שלה בתחום התוכנה. השילוב של טכנולוגיית הקידוד של Windsurf עם היכולות של OpenAI בתחום עיבוד השפה הטבעית (NLP) עשוי להוביל לפיתוח כלים חדשניים שישלבו בין כתיבת קוד לשיחה טבעית, ובכך להגדיל את נתח השוק שלה



הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.

סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.