ניו יורק מגבילה את הבינה המלאכותית: האם זה צעד חכם או חשש מוגזם?
האם הבינה המלאכותית הפכה ל"אח הגדול" של ימינו? מושלת ניו יורק, קת'י הוקול, חתמה על חוק תקדימי שמנסה לעשות סדר בעולם ה-AI. החוק החדש, שכולל דרישה לשקיפות ופיקוח הדוק, הוא לא רק ניסיון להבטיח שהטכנולוגיה לא תצא משליטה, אלא גם מסר חזק לעולם – אנחנו לא מוכנים לתת למכונות להחליט בשבילנו על דברים קריטיים.
מה אומר החוק?
החוק הזה לא בא לאסור על שימוש ב-AI, אלא לקבוע כללים ברורים איך ואיפה אפשר להשתמש בו במוסדות ממשלתיים.
אסור למכונות להחליט לבד בתחומים רגישים: קבלת החלטות בנושאים כמו זכאות לדמי אבטלה או סיוע במעונות יום – רק עם פיקוח אנושי. רוצים להבטיח שמישהו עם שכל ורגש יבדוק שההחלטה הגיונית.
שקיפות היא שם המשחק: כל סוכנות ממשלתית חייבת לפרסם דוחות שמסבירים איך בדיוק נעשה שימוש בטכנולוגיות AI. הדוחות האלה יועברו למושלת ולמחוקקים ויהיו זמינים לציבור באינטרנט.
למה יש חשש?
AI הוא לא רק כלי מגניב שמייצר ציורים או כותב טקסטים. כשמשתמשים בו להחלטות ממשלתיות, הוא עלול לגרום לנזקים רציניים.
הטיות באלגוריתמים: מכונות לומדות על סמך נתונים, ואם הנתונים לא מאוזנים או מוטים, גם ההחלטות שלהן יהיו כאלה. תחשבו על זה – אם הנתונים מתעדפים קבוצות מסוימות, אנשים אחרים עלולים להיפגע.
- ג׳ין מרחיבה פעילות ביטחונית עם הזמנה נוספת של כ-4.4 מיליון שקל
- כמעט שני ג’יגה־ואט של חישוב: xAI מרחיבה את מתחם מרכזי הנתונים בממפיס
- המלצת המערכת: כל הכותרות 24/7
אין מי שיסביר למה: כשמכונה מקבלת החלטה, היא לא יכולה להסביר מה עמד מאחורי זה. זה בעייתי במיוחד כשמדובר בנושאים רגישים כמו קצבאות או זכאות לשירותים חיוניים.
דוגמאות מהעולם
ניו יורק לא לבד. בעולם כבר מתחילים להציב חוקים דומים:- האיחוד האירופי: עובד על חוקי רגולציה שיאסרו שימוש במערכות AI מסוכנות, כמו זיהוי פנים אוטומטי במקומות ציבוריים.
- סין: מפתחת מערכת חוקים שמטרתה לשלוט בטכנולוגיות AI ולהגן על פרטיות האזרחים, תוך פיקוח הדוק מצד הממשלה.
- ישראל: מתחילה לבחון את הצורך ברגולציה לשימוש ב-AI במגזר הציבורי, אבל עוד רחוקה מהישגים כמו ניו יורק.
איך זה משפיע עלינו?
הרעיון הוא להגן על הציבור. מצד אחד, הטכנולוגיה מציעה פתרונות מדהימים – היא יכולה לחסוך זמן, לשפר שירותים ואפילו למנוע טעויות אנוש. מצד שני, אם לא נהיה זהירים, היא עלולה לפגוע בזכויות שלנו, להטות החלטות ולהשאיר אנשים בלי פתרון הולם לבעיות שלהם.
- "כבר קיבלנו הצעות לרכישה שהורדנו מהפרק כי אנחנו רואים פוטנציאל אדיר"
- פרופ' שעשוע (שוב) מוכר חלום; בחזרה לאקזיט של מובילאיי ועל האקזיט הצפוי ב-AI21
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- "המטרה שלנו לזהות מה הלקוח רוצה, החזון להיות מנוע...
לדוגמה, תחשבו שאתם מגישים בקשה לקצבה מסוימת, אבל בגלל טעות בנתונים שהוזנו למערכת, הבקשה שלכם נדחית. אם אין מישהו שמפקח על המערכת, אתם עלולים למצוא את עצמכם מתמודדים מול מכונה שאין לה לב או רגש.
תגובות מהשטח
הסנאטורית קריסטן גונזלס, שיזמה את החוק, הסבירה: "זה לא שאנחנו נגד טכנולוגיה, אנחנו פשוט רוצים לוודא שהיא משרתת אותנו ולא להפך."
גם המושלת הוקול הצהירה: "החוק הזה מבטיח שהטכנולוגיה תהיה כלי שבונה אמון ולא גורם שמערער אותו."
שאלות ותשובות על החוק שמגביל את הבינה המלאכותית
למה החוק הזה חשוב?
כי הוא מציב גבולות ברורים. בינה מלאכותית היא כמו אש – יכולה לחמם ולתת אור, אבל גם לשרוף אם לא נזהרים.
איך הציבור יכול לעקוב?
החוק מחייב לפרסם את כל הדוחות באינטרנט, כך שכל אחד יוכל לבדוק איך הטכנולוגיה הזו משפיעה על החיים שלנו.
האם זה יעכב חדשנות?
- 2.הלעטתם את הבינה מכל הבא ליד (ל"ת)הבינה לומדת 28/12/2024 19:31הגב לתגובה זו
- 1.גידלת תינוק במהירות ועוד יקום על האנושות (ל"ת)הבינה לומדת 28/12/2024 19:30הגב לתגובה זו
ערן ברק, מנכ"ל ומייסד Mind, קרדיט: אוהד קאב"כבר קיבלנו הצעות לרכישה שהורדנו מהפרק כי אנחנו רואים פוטנציאל אדיר"
שיחה עם ערן ברק, מייסד ומנכ"ל חברת הסייבר MIND
ספר בקצרה על עצמך:
במקור מיבנה, שירתי 6 שנים ב-8200, את התואר הראשון עשיתי בטכניון ולאחריו חזרתי לעולם המודיעין והסייבר. בשנת 2014 הקמתי יחד עם שותפיי את Hexadite, סטארט אפ שפיתח טכנולוגיה לאוטומציה של תגובה לאירועי סייבר. החברה גייסה כ-10.5 מיליון דולר, העבירה את פעילותה לבוסטון, וב-2017 נרכשה על ידי מיקרוסופט תמורת כ-100 מיליון דולר. לאחר הרכישה המשכתי לסיאטל, בה אני נמצא גם היום, כאשר בעבודה במיקרוסופט הייתי בתפקיד ניהולי בעולמות הסקיוריטי. במסגרת התפקיד הייתי מעורב בהקמת Microsoft Intelligent Security Association - MISA שהוא גוף שפועל עד היום ומחבר בין מיקרוסופט לחברות סייבר. כשמגפת הקורונה החלה, החלטתי שאני עוזב את מיקרוסופט, לצאת לדרך חדשה ואז הקמתי את Mind. השותפים בחברה הם הוד בן נון ואיתי שווארץ שלשניהם עבר במודיעין וגם בכמה חברות הייטק.
ספר על החברה ומניין הרעיון?
כשעבדתי במיקרוסופט, כבר לאחר המכירה של Hexadite שהתעסקה בתחום האוטומציה והיום הרבה מה ש-Hexadite עושה, כבר מתבצע על על ידי AI. במהלך התקופה של מיקרוסופט עבדתי עם הרבה מוצרים שאחד מהם היה מיקורסופט אינפורמיישן פרוטקשן. ושם נחשפתי יותר לעולם ההגנה על מידע רגיש, וראיתי שהבעיה המרכזית בעולם הזה עוד לפני עידן ה-AI, זה שהפתרונות שהיו קיימים בשוק היו מאוד מותאמים לסביבות ספציפיות בתוך הארגון. כך למשל הייתה מערכת הגנה ל-Saas, מערכת אחרת למחשבי קצה, מערכת לשרתי on prem, אבל לא הייתה תקשורת ביניהן. כל זאת כשהמידע הוא אותו מידע. מה שנכתב ונשמר בגוגל דרייב, נמצא גם במייל ולפני עשר שנים גם בשרת כלשהו מקומי במחשב. לכל אחד מהמקומות האלו הייתה מערכת הגנה נפרדת וזה לא עשה שכל. הקמנו את Mind כדי לעשות מהפכה לכל הנוגע למידע רגיש, ועכשיו עם עידן ה-AI יצר המון חורים בנושא של הגנת מידע, במיוחד בשנה האחרונה. כיום יש אייג'נטים של AI נוגעים במידע רגיש ואין לנו שליטה עליהם, נוסיף על זה גם פרומפטים שאנחנו לא יודעים לאן הם הולכים ובעיני מי הם נחשפים, ופה Mind נכנסת לתמונה ומגינה גם על כל מה שנכתב בתוכנות AI. איך מגינים מפני עובד בארגון המעלה מסמך רגיש של הארגון ל-AI? או איך מונע עכשיו הפצה של סיסמאות או סודות לשרתים המכילים מידע רגיש, קוד שנעשה באמצעות סוכני AI. יש לנו פלטפורמה אחידה שמגינה על מידע רגיש בסביבות שונות, החל מהענן ולסביבות On prem ובמחשבי קצה ו-AI.
אחת הבעיות המרכזיות הוא בסיווג של מידע מובנה, כמו למשל טבלאות אקסל, בסיסי נתונים וכו׳, לעומת מידע בלתי מובנה כמו קבצי word, טקסט חופשי והודעות, היא השוני במנוע הסיווג עצמו שדורש יכולות לעבור על כל פיסה של מידע. ל-MIND יכולת לסווג מידע בלתי מובנה באופן אוטומטי ובזמן מינימלי בכל סביבות הארגון ועם מינימום טעויות. בין אם מדובר במידע רפואי או אישי, מידע מכרטיסי אשראי, קבצי טקסט או וידאו. הפלטפורמה פועלת על פני סביבות IT שונות ומאפשרת לארגונים לאתר ולמנוע דליפות מידע בזמן אמת ובמהירות גבוהה, בין אם מקורן בעובדים, במערכות אוטומטיות או בכלי בינה מלאכותית.

- open AI מעניקה אופציות בשווי 1.5 מיליון דולר לעובד
- הארגונים רוצים AI, אבל מתקשים להפיק ממנו ערך
- המלצת המערכת: כל הכותרות 24/7
מתי הוקמה וכמה עובדים:
הוקמה 2023 אנחנו כמעט 60 עובדים בחברה, כאשר הפיתוח יושב בתל אביב והמטה בסיאטל.
ערן ברק, מנכ"ל ומייסד Mind, קרדיט: אוהד קאב"כבר קיבלנו הצעות לרכישה שהורדנו מהפרק כי אנחנו רואים פוטנציאל אדיר"
שיחה עם ערן ברק, מייסד ומנכ"ל חברת הסייבר MIND
ספר בקצרה על עצמך:
במקור מיבנה, שירתי 6 שנים ב-8200, את התואר הראשון עשיתי בטכניון ולאחריו חזרתי לעולם המודיעין והסייבר. בשנת 2014 הקמתי יחד עם שותפיי את Hexadite, סטארט אפ שפיתח טכנולוגיה לאוטומציה של תגובה לאירועי סייבר. החברה גייסה כ-10.5 מיליון דולר, העבירה את פעילותה לבוסטון, וב-2017 נרכשה על ידי מיקרוסופט תמורת כ-100 מיליון דולר. לאחר הרכישה המשכתי לסיאטל, בה אני נמצא גם היום, כאשר בעבודה במיקרוסופט הייתי בתפקיד ניהולי בעולמות הסקיוריטי. במסגרת התפקיד הייתי מעורב בהקמת Microsoft Intelligent Security Association - MISA שהוא גוף שפועל עד היום ומחבר בין מיקרוסופט לחברות סייבר. כשמגפת הקורונה החלה, החלטתי שאני עוזב את מיקרוסופט, לצאת לדרך חדשה ואז הקמתי את Mind. השותפים בחברה הם הוד בן נון ואיתי שווארץ שלשניהם עבר במודיעין וגם בכמה חברות הייטק.
ספר על החברה ומניין הרעיון?
כשעבדתי במיקרוסופט, כבר לאחר המכירה של Hexadite שהתעסקה בתחום האוטומציה והיום הרבה מה ש-Hexadite עושה, כבר מתבצע על על ידי AI. במהלך התקופה של מיקרוסופט עבדתי עם הרבה מוצרים שאחד מהם היה מיקורסופט אינפורמיישן פרוטקשן. ושם נחשפתי יותר לעולם ההגנה על מידע רגיש, וראיתי שהבעיה המרכזית בעולם הזה עוד לפני עידן ה-AI, זה שהפתרונות שהיו קיימים בשוק היו מאוד מותאמים לסביבות ספציפיות בתוך הארגון. כך למשל הייתה מערכת הגנה ל-Saas, מערכת אחרת למחשבי קצה, מערכת לשרתי on prem, אבל לא הייתה תקשורת ביניהן. כל זאת כשהמידע הוא אותו מידע. מה שנכתב ונשמר בגוגל דרייב, נמצא גם במייל ולפני עשר שנים גם בשרת כלשהו מקומי במחשב. לכל אחד מהמקומות האלו הייתה מערכת הגנה נפרדת וזה לא עשה שכל. הקמנו את Mind כדי לעשות מהפכה לכל הנוגע למידע רגיש, ועכשיו עם עידן ה-AI יצר המון חורים בנושא של הגנת מידע, במיוחד בשנה האחרונה. כיום יש אייג'נטים של AI נוגעים במידע רגיש ואין לנו שליטה עליהם, נוסיף על זה גם פרומפטים שאנחנו לא יודעים לאן הם הולכים ובעיני מי הם נחשפים, ופה Mind נכנסת לתמונה ומגינה גם על כל מה שנכתב בתוכנות AI. איך מגינים מפני עובד בארגון המעלה מסמך רגיש של הארגון ל-AI? או איך מונע עכשיו הפצה של סיסמאות או סודות לשרתים המכילים מידע רגיש, קוד שנעשה באמצעות סוכני AI. יש לנו פלטפורמה אחידה שמגינה על מידע רגיש בסביבות שונות, החל מהענן ולסביבות On prem ובמחשבי קצה ו-AI.
אחת הבעיות המרכזיות הוא בסיווג של מידע מובנה, כמו למשל טבלאות אקסל, בסיסי נתונים וכו׳, לעומת מידע בלתי מובנה כמו קבצי word, טקסט חופשי והודעות, היא השוני במנוע הסיווג עצמו שדורש יכולות לעבור על כל פיסה של מידע. ל-MIND יכולת לסווג מידע בלתי מובנה באופן אוטומטי ובזמן מינימלי בכל סביבות הארגון ועם מינימום טעויות. בין אם מדובר במידע רפואי או אישי, מידע מכרטיסי אשראי, קבצי טקסט או וידאו. הפלטפורמה פועלת על פני סביבות IT שונות ומאפשרת לארגונים לאתר ולמנוע דליפות מידע בזמן אמת ובמהירות גבוהה, בין אם מקורן בעובדים, במערכות אוטומטיות או בכלי בינה מלאכותית.

- open AI מעניקה אופציות בשווי 1.5 מיליון דולר לעובד
- הארגונים רוצים AI, אבל מתקשים להפיק ממנו ערך
- המלצת המערכת: כל הכותרות 24/7
מתי הוקמה וכמה עובדים:
הוקמה 2023 אנחנו כמעט 60 עובדים בחברה, כאשר הפיתוח יושב בתל אביב והמטה בסיאטל.
