ניו יורק מגבילה את הבינה המלאכותית: האם זה צעד חכם או חשש מוגזם?

מהפכת ה-AI מתקדמת, אבל הממשל והרגולטורים מתכוונים להגביל את השימוש - מה הסכנות ומה צפוי בהמשך?
עמית בר | (2)

האם הבינה המלאכותית הפכה ל"אח הגדול" של ימינו? מושלת ניו יורק, קת'י הוקול, חתמה על חוק תקדימי שמנסה לעשות סדר בעולם ה-AI. החוק החדש, שכולל דרישה לשקיפות ופיקוח הדוק, הוא לא רק ניסיון להבטיח שהטכנולוגיה לא תצא משליטה, אלא גם מסר חזק לעולם – אנחנו לא מוכנים לתת למכונות להחליט בשבילנו על דברים קריטיים.

 

מה אומר החוק?

החוק הזה לא בא לאסור על שימוש ב-AI, אלא לקבוע כללים ברורים איך ואיפה אפשר להשתמש בו במוסדות ממשלתיים.

אסור למכונות להחליט לבד בתחומים רגישים: קבלת החלטות בנושאים כמו זכאות לדמי אבטלה או סיוע במעונות יום – רק עם פיקוח אנושי. רוצים להבטיח שמישהו עם שכל ורגש יבדוק שההחלטה הגיונית.

שקיפות היא שם המשחק: כל סוכנות ממשלתית חייבת לפרסם דוחות שמסבירים איך בדיוק נעשה שימוש בטכנולוגיות AI. הדוחות האלה יועברו למושלת ולמחוקקים ויהיו זמינים לציבור באינטרנט.

 

למה יש חשש?

AI הוא לא רק כלי מגניב שמייצר ציורים או כותב טקסטים. כשמשתמשים בו להחלטות ממשלתיות, הוא עלול לגרום לנזקים רציניים.

הטיות באלגוריתמים: מכונות לומדות על סמך נתונים, ואם הנתונים לא מאוזנים או מוטים, גם ההחלטות שלהן יהיו כאלה. תחשבו על זה – אם הנתונים מתעדפים קבוצות מסוימות, אנשים אחרים עלולים להיפגע.

אין מי שיסביר למה: כשמכונה מקבלת החלטה, היא לא יכולה להסביר מה עמד מאחורי זה. זה בעייתי במיוחד כשמדובר בנושאים רגישים כמו קצבאות או זכאות לשירותים חיוניים.

 

דוגמאות מהעולם

ניו יורק לא לבד. בעולם כבר מתחילים להציב חוקים דומים:
  • האיחוד האירופי: עובד על חוקי רגולציה שיאסרו שימוש במערכות AI מסוכנות, כמו זיהוי פנים אוטומטי במקומות ציבוריים.
  • סין: מפתחת מערכת חוקים שמטרתה לשלוט בטכנולוגיות AI ולהגן על פרטיות האזרחים, תוך פיקוח הדוק מצד הממשלה.
  • ישראל: מתחילה לבחון את הצורך ברגולציה לשימוש ב-AI במגזר הציבורי, אבל עוד רחוקה מהישגים כמו ניו יורק.
 

איך זה משפיע עלינו?

הרעיון הוא להגן על הציבור. מצד אחד, הטכנולוגיה מציעה פתרונות מדהימים – היא יכולה לחסוך זמן, לשפר שירותים ואפילו למנוע טעויות אנוש. מצד שני, אם לא נהיה זהירים, היא עלולה לפגוע בזכויות שלנו, להטות החלטות ולהשאיר אנשים בלי פתרון הולם לבעיות שלהם.

קיראו עוד ב"BizTech"

לדוגמה, תחשבו שאתם מגישים בקשה לקצבה מסוימת, אבל בגלל טעות בנתונים שהוזנו למערכת, הבקשה שלכם נדחית. אם אין מישהו שמפקח על המערכת, אתם עלולים למצוא את עצמכם מתמודדים מול מכונה שאין לה לב או רגש.

 

תגובות מהשטח

הסנאטורית קריסטן גונזלס, שיזמה את החוק, הסבירה: "זה לא שאנחנו נגד טכנולוגיה, אנחנו פשוט רוצים לוודא שהיא משרתת אותנו ולא להפך."

גם המושלת הוקול הצהירה: "החוק הזה מבטיח שהטכנולוגיה תהיה כלי שבונה אמון ולא גורם שמערער אותו."

שאלות ותשובות על החוק שמגביל את הבינה המלאכותית

למה החוק הזה חשוב?

כי הוא מציב גבולות ברורים. בינה מלאכותית היא כמו אש – יכולה לחמם ולתת אור, אבל גם לשרוף אם לא נזהרים.

איך הציבור יכול לעקוב?

החוק מחייב לפרסם את כל הדוחות באינטרנט, כך שכל אחד יוכל לבדוק איך הטכנולוגיה הזו משפיעה על החיים שלנו.

האם זה יעכב חדשנות?

תגובות לכתבה(2):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 2.
    הלעטתם את הבינה מכל הבא ליד (ל"ת)
    הבינה לומדת 28/12/2024 19:31
    הגב לתגובה זו
  • 1.
    גידלת תינוק במהירות ועוד יקום על האנושות (ל"ת)
    הבינה לומדת 28/12/2024 19:30
    הגב לתגובה זו
סונדאר פיצאי גוגל GOOGLE
צילום: Eesan1969, Wikipedia

מנכ"ל גוגל: "האינטרנט כמו שאנחנו מכירים אותו עומד להשתנות"

סונדאר פיצ'אי על העתיד - אינטרנט, משקפיים חכמים, בינה מלאכותית והחזון

עמית בר |

סונדאר פיצ'אי, מנכ"ל גוגל סבור שהבינה המלאכותית תחולל מהפכה הגדולה יותר מזו של האינטרנט. הוא מזכיר שכאשר האינטרנט החל את דרכו, גוגל כלל לא הייתה קיימת, ובאותו אופן הוא צופה שבעתיד הקרוב ייווצרו חברות, מוצרים וקטגוריות שכיום איננו יכולים אפילו לדמיין. פיצ'אי אומר את משנתו בתקשורת האמריקאית, ראיונות ופודקאסטים, אספנו את עיקרי הדברים מהזמן האחרון

משקפיים חכמים: מיליונים ינסו את המוצר בשנה הקרובה

גוגל חתמה על שיתופי פעולה אסטרטגיים עם מותגי האופנה הבינלאומיים Gentle Monster ו-Warby Parker, ומתכננת להשיק גרסאות למפתחים עוד השנה. לדברי פיצ'אי, המוצרים שיגיעו למפתחים יהיו קרובים מאוד לגרסאות הסופיות שיגיעו לשוק הרחב.

הוא צופה שמיליוני אנשים ינסו את הטכנולוגיה. עם זאת, עדיין לא מדובר במוצר שיהפוך למיינסטרים ברמה של האייפון. האתגר המרכזי, לדבריו, הוא לשכנע אנשים לענוד מכשיר על הפנים שלהם לאורך זמן - רף שגבוה משמעותית מאשר להחזיק טלפון בכיס.

פיצ'אי מתמודד עם ביקורת חריפה מצד מפרסמים ובעלי אתרים, שבעצם מאשימים את גוגל בגניבת תוכן ובשימוש בו ללא תמורה כלכלית. הוא טוען שגוגל היא החברה היחידה שעדיין מתעדפת שליחת תעבורה לאתרי אינטרנט, בעוד שמתחרים חדשים מצהירים בגלוי שאינם מתכוונים לעשות זאת. הוא מציג מידע כי דפי האינטרנט הזמינים לסריקה של גוגל גדל ב-45% בשנתיים האחרונות בלבד - נתון שלדבריו סותר את הטענות על "מות האינטרנט". כשנשאל אם הגידול נובע מתוכן שנוצר על ידי בינה מלאכותית, הוא מסביר שלחברה יש מגוון טכניקות לזיהוי תוכן שנוצר על ידי מכונות, וזה לא מסביר את המגמה הכללית.

הוא משוכנע שכמו בכל המעברים הטכנולוגיים של 25 השנים האחרונות, גם הפעם התוצאה הסופית תהיה חיובית עבור בעלי האתרים.

האם עידן החיפוש המסורתי מגיע לקיצו?

לראשונה מזה 22 שנה נרשמה ירידה בחיפושים בדפדפן Safari של אפל, מה שהוביל לירידה זמנית במחיר המניה של גוגל. פיצ'אי דוחה את החששות ומתעקש שהחברה רואה צמיחה כוללת בשאילתות חיפוש, כולל במכשירי אפל.

סם אלטמן. קרדיט: רשתות חברתיותסם אלטמן. קרדיט: רשתות חברתיות

אחרי ההתאבדויות - OpenAI משנה את ChatGPT; יותר פיקוח ומודעות למצבים נפשיים קשים

מותו הטראגי של נער בן 16 מקליפורניה הוביל לגל ביקורת ותביעה משפטית נגד OpenAI. החברה מודה בכשלים ומנסה לשנות את התשובות של הצ'אט ולשלב בצ'אט יצירת קשר עם אנשי מקצוע. על המגבלות הגדולות והמסוכנות של הצ'אט - לא הכל וורוד ב-AI

רן קידר |


אדם ריין, תלמיד תיכון בן 16 מקליפורניה התאבד כשכנראה הצ'אט "עודד" אותו לכך.  הוריו טוענים כי בנם מצא ב-ChatGPT לא רק שותף לשיחות על חרדותיו, אלא גם מעין "מאמן" שאישרר את מצבו הנפשי הקשה והוביל אותו להעמיק בתכניות אובדניות. לדבריהם, הנער התאבד באפריל אחרי תקופה שבה התכתב עם הבוט שעות ארוכות, עד שהקשר עם המערכת הפך קרוב יותר מהקשר עם סביבתו הקרובה.

המקרה הוביל לתביעה נגד OpenAI ונגד המנכ"ל סם אלטמן. ההורים טוענים שהמערכת תרמה מאוד להידרדרות הנפשית וגרמה בעצם למוות הטרגי. תשובות שנתנה לבנם המערכת שימשו בפועל חיזוק לרצונו לשים קץ לחייו.

תגובת OpenAI - מצטערים, אבל...

במענה לגל הביקורת ולתביעה, OpenAI הודיעה על חבילה רחבה של צעדים שנועדה להפוך את ChatGPT למערכת בטוחה יותר, אבל היא לא הודתה באופן ישיר כי הצ'אט הוא האחראי למוות. מדובר במקרה טרגי, אבל לא היחיד. הצ'אט "מואשם" בגרימת התאבדויות נוספות ובשורה מאוד ארוכה של החמרה במצבים נפשיים. 

הבוט לא יכול להיות "חבר", "פסיכולוג" אמיתי ועכשיו, על רקע ההתאבדויות והאירועים הקשים מבינים זאת, אבל השאלה אם אפשר בכלל להסתמך עליו במקומות נוספים - עצות, רעיונות, ואם העצה שהוא יספק לנו היא מתאימה לנו או לכלל. צריך לזכור שהממוצע לא מתאים לרובנו. אם יש תשובה גנרית מסוימת למצב מסוים, זה אומר שלרוב האנשים זה לא מתאים. ההסתמכות על תשובה כזו, וזה יכול להיות באפיקים שונים, בעייתית. מצד שני, אם נצטרך תשובת מומחה (רופא, עורך דין, יועץ מס) אז הצ'אט מאבד מחשיבותו. הצ'אטים מנסים ללכת בן הטיפות, זה יהיה מורכב. הכוונה של החברות להתקדם בפיתוח ובעיבוד עד למצב שהם מספקים תשובות אישיות, אבל הם כבר למדו את הלקח, הם יסייגו, לא יקחו אחריות ויגידו שהם עשו הכל כדי להסביר לכם שזו לא תשובה מוחלטת. הם יוסיפו אותיות קטנות. הנה מה שהם מתכוונים לעשות בעקבות ההתאבדויות.


ראשית, הם ינסו לזהות טוב יותר של מצוקה נפשית. הצ’אט יוכל לזהות ביטויים עקיפים לחרדה, ייאוש או מחשבות מסוכנות. כך למשל, אם משתמש מציין כי היה ער יומיים ברצף ומרגיש "בלתי מנוצח", המערכת תתריע על סכנות ותמליץ על מנוחה או פנייה לעזרה מקצועית.