אוטוטוקס ו-Yunex Traffic משדרגות את האבטחה בתקשורת תחבורתית עם פריסה רחבה בארה”ב
החברה מדווחת על עמידה בתקני אבטחת המידע בארה״ב; שיתוף הפעולה בין אוטוטוקס ל-Yunex Traffic מביא לשדרוג יחידות תקשורת חכמות בכבישים בארה”ב, עם דגש על אבטחת מידע, פרטיות וזיהוי מצבי סיכון
חברת אוטוטוקס (Autotalks) מכפר נטר, המתמחה בפתרונות לתקשורת V2X (Vehicle to Everything), וחברת Yunex Traffic המתמחה במערכות תחבורה חכמות, הכריזו על יכולות מורחבות בתחומי הפרטיות והאבטחה ששולבו ביחידות תקשורת לכבישים (RSUs – Roadside Units) המבוססות על שבבי אוטוטוקס. יכולות האבטחה נבדקו בתהליך ההסמכה OmniAir שהוא מרכיב קריטי נדרש לפני פריסה של פתרון מסוג זה בארה"ב.
Yunex Traffic היא חברה המתמחה בתחום מערכות התחבורה החכמות. היא מעסיקה כ-3,500 עובדים שמבצעים פרויקטים ב-40 מדינות כולל בערים גדולות כמו דובאי, לונדון, ברלין, בוגוטה ומיאמי.
פריסת יחידות RSU2X בארה”ב: אלפי יחידות מותקנות בכבישים
ההתקנה של יחידות התקשורת RSU2X (Roadside units to everything) לכבישים בארה"ב מאפשרת להתקני תשתית בדרכים ולכלי רכב מסוגים שונים לתקשר זה עם זה. היא מיושמת בתחבורה ציבורית, מכוניות פרטיות, משאיות, אופניים ואף הולכי רגל. שבבי V2X מאפשרים ליישם מגוון תרחישים וביניהם תעדוף רכבי הצלה ואוטובוסים וכן זיהוי הולכי רגל ומשתמשים אחרים הנמצאים בסיכון. עד היום הותקנו למעלה מ-500 יחידות תקשורת מדגם RSU2X של Yunex Traffic במספר מדינות בארה"ב ובהן: קליפורניה, אריזונה, קולורדו, פלורידה, צפון קרולינה ומדינות נוספות בעתיד.
טכנולוגיה אנונימית להגנת המשתמשים
הגנה על פרטיות נמצאת בחזית הטכנולוגית של שיתוף הפעולה בין אוטוטוקס ל-Yunex Traffic. יחידות התקשורת לכבישים מדגם RSU2X מצייתות באופן מלא למערכת הניהול של אישורי אבטחה של צפון אמריקה (SCMS) שהיא קריטית להבטחת תקשורת אמינה. הדור השני של שבבי אוטוטוקס תוכנן באופן מיוחד כדי לאפשר תקשורת אנונימית באמצעות הפרדה בין מסרי התקשורת לבין זהות המשתמשים והימנעות מאחסון של מידע אישי.
אוטוטוקס מציעה חידוש בתחום האבטחה של שבבי V2X באמצעות מודול אבטחת חומרה (HSM) שקיבל הסמכה לתקן הפדרלי 140-2 FIPS בתחום עיבוד הנתונים וכן הסמכות נוספות. אישורים אלה מבטיחים שמפתחות פרטיים מנוהלים באופן מאובטח בתוך המכשיר ונכסים רגישים מוגנים באופן מלא. יכולת זו היא חיונית למניעת גישה בלתי מאושרת ולשמירת האמון ברשת מקושרת של כלי רכב.
מאיצי החומרה המתקדמים של שבבי אוטוטוקס מאמתים הודעות נכנסות בזמן אמת ומאפשרים לנתונים אמינים בלבד לעבור לעיבוד. יתרה מכך, ארכיטקטורת השבבים של אוטוטוקס מבודדת מכל מערכות התקשורת האחרות כמו רשתות סלולריות ומגינה בכך על סביבת V2X מפני מתקפות סייבר מרוחקות.
"טכנולוגיית V2X חיונית לבניית תשתית נתונים אמינה לצורכי בטיחות בדרכים"
און הרן, מייסד ו-CTO, אוטוטוקס מסר "החזון שלנו דוגל בתפישה שאבטחה ופרטיות הם מרכיבים ראשונים במעלה בתקשורת V2X. טכנולוגיית V2X חיונית לבניית תשתית נתונים אמינה לצורכי בטיחות בדרכים ואנו מחויבים לספק את האמון באבטחה ובפרטיות בכל הפתרונות שלנו. שיתוף הפעולה שלנו עם Yunex Traffic מדגים מחויבות זו בעת שאנו פועלים ביחד להגביר את הבטיחות בדרכים תוך הגנה על מידע המשתמשים".

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים
מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI
אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך. הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.
המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.
תגובת OpenAI - מצטערים, אבל...
במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים.
הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.
- הבנצ'מארק של ה-AI: האתר שמודד את ביצועי הצ'טבוטים והסערה סביב מטא
- רשות ני"ע מגבילה את השימוש בצ'אטבוטים בשירותים פיננסים
- המלצת המערכת: כל הכותרות 24/7
ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים
מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI
אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך. הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.
המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.
תגובת OpenAI - מצטערים, אבל...
במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים.
הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.
- הבנצ'מארק של ה-AI: האתר שמודד את ביצועי הצ'טבוטים והסערה סביב מטא
- רשות ני"ע מגבילה את השימוש בצ'אטבוטים בשירותים פיננסים
- המלצת המערכת: כל הכותרות 24/7
ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.