אנדוסטרים הישראלית נמכרת לתאגיד יפני תמורת 100 מיליון דולר

סטארט אפ המכשור הרפואי הישראל, שפיתח שתל לטיפול במפרצות מוחיות, נרכש על ידי  קאנקה, אך ימשיך לפעול בישראל וצפוי להפוך למרכז הפיתוח של התאגיד היפני

איתן גרסטנפלד |
נושאים בכתבה סטארט אפ אקזיט

סטארט אפ המכשור הרפואי הישראלי אנדוסטרים מדיקל (EndoStream Medical) נרכש על ידי התאגיד הציבורי היפני קאנקה (Kaneka) תמורת 100 מיליון דולר.  לאחר השלמת הרכישה, אנדוסטרים תמשיך לפעול בישראל וצפויה להפוך למרכז הפיתוח של התאגיד היפני, כאשר כל העובדים הקיימים יישארו והחברה צפויה לגייס עובדים נוספים.


אנדוסטרים הוקמה ב-2015 על ידי דנאל מאייר, המשמש כמנכ"ל, ואלון מאי, המשמש כסמנכ"ל טכנולוגיה. החברה, המעסיקה 12 עובדים, פיתחה שתל לטיפול במפרצות מוחיות. במהלך השנים היא גייסה כ-5 מיליון דולר מפרגרין ונצ'רס, קרן ההון סיכון היחידה שהשקיעה בחברה, וכן משורה של נוירוכירורגים אמריקאים.


תאגיד קאנקה, שמנוהל מאוסקה ומטוקיו שביפן, מעסיק כ-11,500 עובדים. התאגיד מתמקד בארבע יחידות עסקיות אסטרטגיות: חומרים, איכות חיים, שירותי בריאות ותזונה. פעילותה העסקית של קאנקה מתפרסת על פני מגוון רחב של שווקים, ובכללם תרופות, מכשור רפואי, מדעי החיים,  כימיקלים ייחודיים, פוטו-וולטאיקה, פלסטיק, סיבים סינתטיים, חומרים חשמליים ואלקטרוניים ומוצרי מזון.


על פי החברה, המיזוג ישלב את יכולות הייצור של קאנקה והטכנולוגיה של אנדוסטרים, כך ששתי החברות ימשיכו לפתח את השתל של אנדוסטרים (Nautilus) וכן יפתחו יחד מכשירים רפואיים חדשים, בעיקר עבור טיפול במחלות כלי דם במוח. לאחר השלמה הרכישה, אנדוסטרים תישאר לפעול בישראל וצפויה להפוך למרכז פיתוח של התאגיד היפני. כל העובדים הקיימים יישארו והחברה צפויה לגייס עובדים נוספים.

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.

סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.