בינה מלאכותית
צילום: טוויטר

ניו יורק מגבילה את הבינה המלאכותית: האם זה צעד חכם או חשש מוגזם?

מהפכת ה-AI מתקדמת, אבל הממשל והרגולטורים מתכוונים להגביל את השימוש - מה הסכנות ומה צפוי בהמשך?
עמית בר | (2)

האם הבינה המלאכותית הפכה ל"אח הגדול" של ימינו? מושלת ניו יורק, קת'י הוקול, חתמה על חוק תקדימי שמנסה לעשות סדר בעולם ה-AI. החוק החדש, שכולל דרישה לשקיפות ופיקוח הדוק, הוא לא רק ניסיון להבטיח שהטכנולוגיה לא תצא משליטה, אלא גם מסר חזק לעולם – אנחנו לא מוכנים לתת למכונות להחליט בשבילנו על דברים קריטיים.

 

מה אומר החוק?

החוק הזה לא בא לאסור על שימוש ב-AI, אלא לקבוע כללים ברורים איך ואיפה אפשר להשתמש בו במוסדות ממשלתיים.

אסור למכונות להחליט לבד בתחומים רגישים: קבלת החלטות בנושאים כמו זכאות לדמי אבטלה או סיוע במעונות יום – רק עם פיקוח אנושי. רוצים להבטיח שמישהו עם שכל ורגש יבדוק שההחלטה הגיונית.

שקיפות היא שם המשחק: כל סוכנות ממשלתית חייבת לפרסם דוחות שמסבירים איך בדיוק נעשה שימוש בטכנולוגיות AI. הדוחות האלה יועברו למושלת ולמחוקקים ויהיו זמינים לציבור באינטרנט.

 

למה יש חשש?

AI הוא לא רק כלי מגניב שמייצר ציורים או כותב טקסטים. כשמשתמשים בו להחלטות ממשלתיות, הוא עלול לגרום לנזקים רציניים.

הטיות באלגוריתמים: מכונות לומדות על סמך נתונים, ואם הנתונים לא מאוזנים או מוטים, גם ההחלטות שלהן יהיו כאלה. תחשבו על זה – אם הנתונים מתעדפים קבוצות מסוימות, אנשים אחרים עלולים להיפגע.

אין מי שיסביר למה: כשמכונה מקבלת החלטה, היא לא יכולה להסביר מה עמד מאחורי זה. זה בעייתי במיוחד כשמדובר בנושאים רגישים כמו קצבאות או זכאות לשירותים חיוניים.

 

דוגמאות מהעולם

ניו יורק לא לבד. בעולם כבר מתחילים להציב חוקים דומים:
  • האיחוד האירופי: עובד על חוקי רגולציה שיאסרו שימוש במערכות AI מסוכנות, כמו זיהוי פנים אוטומטי במקומות ציבוריים.
  • סין: מפתחת מערכת חוקים שמטרתה לשלוט בטכנולוגיות AI ולהגן על פרטיות האזרחים, תוך פיקוח הדוק מצד הממשלה.
  • ישראל: מתחילה לבחון את הצורך ברגולציה לשימוש ב-AI במגזר הציבורי, אבל עוד רחוקה מהישגים כמו ניו יורק.
 

איך זה משפיע עלינו?

הרעיון הוא להגן על הציבור. מצד אחד, הטכנולוגיה מציעה פתרונות מדהימים – היא יכולה לחסוך זמן, לשפר שירותים ואפילו למנוע טעויות אנוש. מצד שני, אם לא נהיה זהירים, היא עלולה לפגוע בזכויות שלנו, להטות החלטות ולהשאיר אנשים בלי פתרון הולם לבעיות שלהם.

קיראו עוד ב"BizTech"

לדוגמה, תחשבו שאתם מגישים בקשה לקצבה מסוימת, אבל בגלל טעות בנתונים שהוזנו למערכת, הבקשה שלכם נדחית. אם אין מישהו שמפקח על המערכת, אתם עלולים למצוא את עצמכם מתמודדים מול מכונה שאין לה לב או רגש.

 

תגובות מהשטח

הסנאטורית קריסטן גונזלס, שיזמה את החוק, הסבירה: "זה לא שאנחנו נגד טכנולוגיה, אנחנו פשוט רוצים לוודא שהיא משרתת אותנו ולא להפך."

גם המושלת הוקול הצהירה: "החוק הזה מבטיח שהטכנולוגיה תהיה כלי שבונה אמון ולא גורם שמערער אותו."

שאלות ותשובות על החוק שמגביל את הבינה המלאכותית

למה החוק הזה חשוב?

כי הוא מציב גבולות ברורים. בינה מלאכותית היא כמו אש – יכולה לחמם ולתת אור, אבל גם לשרוף אם לא נזהרים.

איך הציבור יכול לעקוב?

החוק מחייב לפרסם את כל הדוחות באינטרנט, כך שכל אחד יוכל לבדוק איך הטכנולוגיה הזו משפיעה על החיים שלנו.

האם זה יעכב חדשנות?

תגובות לכתבה(2):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 2.
    הלעטתם את הבינה מכל הבא ליד (ל"ת)
    הבינה לומדת 28/12/2024 19:31
    הגב לתגובה זו
  • 1.
    גידלת תינוק במהירות ועוד יקום על האנושות (ל"ת)
    הבינה לומדת 28/12/2024 19:30
    הגב לתגובה זו
אנתרופיק קלוד (X)אנתרופיק קלוד (X)

350 מיליארד דולר ב-4 שנים: איך אנתרופיק הביסה את ChatGPT והפכה לענקית ה-AI השלישית בעולם

אנתרופיק, שנוסדה ב-2021 בסן פרנסיסקו, היא כיום אחת משלוש חברות הבינה המלאכותית הפרטיות הגדולות והחשובות בעולם, עם שווי של 350 מיליארד דולר



מנדי הניג |
נושאים בכתבה אנתרופיק

אנתרופיק, שמחזיקה בצ'אט - קלוד, נוסדה ב-2021 בסן פרנסיסקו, והיא כיום אחת משלוש חברות הבינה המלאכותית הפרטיות הגדולות והחשובות בעולם, עם שווי של 350 מיליארד דולר.

החברה הוקמה על ידי שבעה עובדים בכירים לשעבר מ-OpenAI, בראשם האחים דריו אמודאי (מנכ"ל) ודניאלה אמודאי (נשיאה), שהיו בין האחראים המרכזיים על פיתוח GPT-4 ו-GPT-3. הם עזבו את OpenAI מתוך חשש שהחברה מתקדמת מהר מדי לכיוון מסחור ללא מספיק דגש על בטיחות, והקימו את אנתרופיק כחברת Public Benefit Corporation, מבנה משפטי שמחייב אותה לאזן בין רווח כלכלי לבין תועלת ציבורית ארוכת טווח.

הדגש על בטיחות הוא ה-DNA של החברה. אנתרופיק פיתחה את שיטת Constitutional AI, מערכת חוקה כתובה של עקרונות אתיים שהמודל מחויב להם באופן פנימי, ולא רק דרך פילטרים חיצוניים. השיטה הוכיחה את עצמה כיעילה במיוחד בהפחתת תופעות של הזיות, הטיות והתנהגות מסוכנת. בנוסף, החברה הקימה Long-Term Benefit Trust, גוף נאמנות עצמאי שבוחר חלק מדירקטוריון החברה ומטרתו היחידה היא להבטיח שהחברה לא תסטה ממשימתה המקורית גם כשלחצים מסחריים יגברו.

בארבע השנים האחרונות אנתרופיק התקדמה בקצב מטורף. Claude 3 (מרץ 2024) היה המודל הראשון שהתעלה על GPT-4 במרבית המבחנים. Claude 3.5 Sonnet (יוני 2024) הביא שיפור של 2–3× בביצועי קידוד וזרימות עבודה מורכבות, והוסיף את תכונת Artifacts, חלון אינטראקטיבי שבו המודל בונה אפליקציות, דיאגרמות וקוד בזמן אמת מול המשתמש.

באוקטובר 2024 הושקה תכונת "Computer use" – היכולת של Claude לשלוט במחשב כמו בן אדם: צילום מסך, הזזת עכבר, הקלדה, מה שהפך אותו לכלי אוטומציה חזק ביותר. ב-2025 כבר ראינו את Claude 4 Opus ו-Sonnet 4, Claude Sonnet 4.5 (ספטמבר) ו-Claude Haiku 4.5 (אוקטובר) – מודלים שמקבלים ציונים גבוהים מ-95% במבחני קידוד, מתמטיקה ומדעים ברמה גבוהה, ועולים בביצועים על GPT-4.5 ו-Gemini 2.5 Pro ברוב הקטגוריות.

אנתרופיק קלוד (X)אנתרופיק קלוד (X)

350 מיליארד דולר ב-4 שנים: איך אנתרופיק הביסה את ChatGPT והפכה לענקית ה-AI השלישית בעולם

אנתרופיק, שנוסדה ב-2021 בסן פרנסיסקו, היא כיום אחת משלוש חברות הבינה המלאכותית הפרטיות הגדולות והחשובות בעולם, עם שווי של 350 מיליארד דולר



מנדי הניג |
נושאים בכתבה אנתרופיק

אנתרופיק, שמחזיקה בצ'אט - קלוד, נוסדה ב-2021 בסן פרנסיסקו, והיא כיום אחת משלוש חברות הבינה המלאכותית הפרטיות הגדולות והחשובות בעולם, עם שווי של 350 מיליארד דולר.

החברה הוקמה על ידי שבעה עובדים בכירים לשעבר מ-OpenAI, בראשם האחים דריו אמודאי (מנכ"ל) ודניאלה אמודאי (נשיאה), שהיו בין האחראים המרכזיים על פיתוח GPT-4 ו-GPT-3. הם עזבו את OpenAI מתוך חשש שהחברה מתקדמת מהר מדי לכיוון מסחור ללא מספיק דגש על בטיחות, והקימו את אנתרופיק כחברת Public Benefit Corporation, מבנה משפטי שמחייב אותה לאזן בין רווח כלכלי לבין תועלת ציבורית ארוכת טווח.

הדגש על בטיחות הוא ה-DNA של החברה. אנתרופיק פיתחה את שיטת Constitutional AI, מערכת חוקה כתובה של עקרונות אתיים שהמודל מחויב להם באופן פנימי, ולא רק דרך פילטרים חיצוניים. השיטה הוכיחה את עצמה כיעילה במיוחד בהפחתת תופעות של הזיות, הטיות והתנהגות מסוכנת. בנוסף, החברה הקימה Long-Term Benefit Trust, גוף נאמנות עצמאי שבוחר חלק מדירקטוריון החברה ומטרתו היחידה היא להבטיח שהחברה לא תסטה ממשימתה המקורית גם כשלחצים מסחריים יגברו.

בארבע השנים האחרונות אנתרופיק התקדמה בקצב מטורף. Claude 3 (מרץ 2024) היה המודל הראשון שהתעלה על GPT-4 במרבית המבחנים. Claude 3.5 Sonnet (יוני 2024) הביא שיפור של 2–3× בביצועי קידוד וזרימות עבודה מורכבות, והוסיף את תכונת Artifacts, חלון אינטראקטיבי שבו המודל בונה אפליקציות, דיאגרמות וקוד בזמן אמת מול המשתמש.

באוקטובר 2024 הושקה תכונת "Computer use" – היכולת של Claude לשלוט במחשב כמו בן אדם: צילום מסך, הזזת עכבר, הקלדה, מה שהפך אותו לכלי אוטומציה חזק ביותר. ב-2025 כבר ראינו את Claude 4 Opus ו-Sonnet 4, Claude Sonnet 4.5 (ספטמבר) ו-Claude Haiku 4.5 (אוקטובר) – מודלים שמקבלים ציונים גבוהים מ-95% במבחני קידוד, מתמטיקה ומדעים ברמה גבוהה, ועולים בביצועים על GPT-4.5 ו-Gemini 2.5 Pro ברוב הקטגוריות.