בינה מלאכותית ארצות הברית
בינה מלאכותית ארצות הברית

טראמפ בדרך לרגולציה על AI: האם כל מודל חדש יעבור בדיקה לפני השקה?

הבית הלבן שוקל להקים קבוצת עבודה שתבחן מודלי בינה מלאכותית חדשים לפני השקה רחבה. טראמפ מוביל שינוי חד לעומת הקו שקידם מאז חזר לבית הלבן. החשש ממתקפות סייבר מבוססות AI ומהלחץ הציבורי סביב הטכנולוגיה דוחף את הממשל לחשב מסלול מחדש



מירב ארד | (1)


ממשל טראמפ בוחן מהלך דרמטי שעשוי להשפיע על מהפכת הבינה המלאכותית. לפי דיווחים בתקשורת האמריקאית, נשיא ארה״ב דונלד טראמפ בוחן חתימה על צו נשיאותי שיחייב הליך בדיקה למודלי AI מתקדמים טרם שחרורם לציבור. מדובר במהלך שמטרתו לא לפגוע בחדשנות, אלא ניסיון לצמצם סיכונים בשלב הקריטי ביותר.

בתחילת כהונתו, טראמפ ביטל מגבלות שקידם ממשל ג'ו ביידן על פיתוח והפצה של מערכות AI, והדגיש את הצורך לשמור על יתרון תחרותי מול סין.  במקביל, הממשל תמך בצעדים שיגבילו רגולציה ברמת המדינות. אלא שכעת, הגישה מתעדכנת. לא מדובר באימוץ מודל רגולציה אירופי, אלא בהכרה בסיכון חדש: מודלים חזקים במיוחד עלולים לשמש לא רק לחדשנות עסקית - אלא גם לפעילות זדונית, כולל מתקפות סייבר, פגיעה בתשתיות או שימוש בידי מדינות עוינות. 

לכן, בבית הלבן בוחנים הקמת קבוצת עבודה שתכלול נציגי ממשל וחברות טכנולוגיה, שתעסוק באסדרת התחום ובגיבוש מנגנון בדיקה למודלים מתקדמים.

  מה רוצים לבדוק לפני השקה

הדיון אינו נוגע לכל אפליקציה או צ'אטבוט, אלא למודלי בסיס גדולים - כאלה שמסוגלים לכתוב קוד, לנתח מערכות, לאתר חולשות אבטחה ולהפעיל סוכנים אוטונומיים.

הליך בדיקה אפשרי עשוי לכלול: בחינה האם המודל מסוגל לייצר קוד זדוני; זיהוי יכולות לאיתור פרצות אבטחה; בדיקת מנגנוני הגנה ושימוש אחראי ניטור שימושים חריגים או מסוכנים. 

למעשה, הממשל בודק את הפוטנציאל לנזק ולסיכון אסטרטגי.

נקודת המפנה: מודלים מתקדמים כבר כאן

 אחד הטריגרים לשינוי הוא ההתקדמות המהירה ביכולות המודלים של חברות כמו OpenAI, אנטרופיק וגוגל. חלק מהחברות כבר נוקטות זהירות ומגבילות הפצה של מודלים רגישים.

בממשל האמריקני מבינים שהשוק עצמו מזהה את הסיכון, אך אינו מספיק כדי לנהל אותו לבד.

 עיקר החשש של הממשל הוא ממודלים מתקדמים שעלולים לסייע בתכנון מתקפות סייבר מורכבות, ייצור נשק ביולוגי או בהפצת קמפיינים מאסיביים של דיסאינפורמציה שיהיה קשה לזהותם.

הזינוק ביכולות ה-AI והסיכונים החדשים

בשנה וחצי האחרונות חלה קפיצה חדה ביכולות של מודלי בינה מלאכותית - לא רק באיכות השיחה, אלא בעיקר ביכולת לפעול באופן עצמאי. חברות כמו OpenAI, אנתרופיק וגוגל עברו ממודלים שמספקים תשובות - למודלים "אג'נטיים" (Agentic AI) שמסוגלים לבצע משימות מורכבות, לכתוב קוד, לנתח מערכות ואף לפעול ברצף פעולות עצמאי. לפי מחקרים ודיווחים מהשנה האחרונה, היכולות הללו כבר חצו סף בעייתי: מודלים מתקדמים הצליחו בסימולציות לעקוף מנגנוני בטיחות, לשקר, ואף לנקוט פעולות לא אתיות כמו סחיטה או גניבת מידע כאשר "הרגישו" שמטרותיהם מאוימות.

קיראו עוד ב"BizTech"

 במקביל, מחקר של אנתרופיק מצא כי מערכות AI כבר משמשות בפועל לביצוע מתקפות סייבר מורכבות, ולא רק לייעוץ תיאורטי . בנובמבר 2025 דיווחה אנתרופיק על הפרעה לקמפיין ריגול סייבר גדול-היקף שהופעל באופן אוטונומי כמעט לחלוטין על-ידי קבוצה סינית ממלכתית באמצעות כלי קלוד קוד שלה. ה-AI ביצע באופן עצמאי סריקת מערכות, ניצול פרצות, גניבת אישורים והוצאת מידע נגד כ-30 יעדים גלובליים (חברות טכנולוגיה, מוסדות פיננסיים, חברות כימיקלים וסוכנויות ממשלתיות).

 הבעיה אינה רק טכנית אלא גם התנהגותית: מודלים חדשים נוטים לריצוי יתר, הם נוטים להסכים עם המשתמש ולחזק את דבריו גם כשהם שגויים או מסוכנים. מחקרים הראו שצ'אטבוטים עלולים לאשר אמונות שגויות או תיאוריות קונספירציה, במיוחד כאשר המשתמש במצוקה. במקביל, עולה גם סיכון בתחום בריאות הנפש. מחקרים מצאו כי מערכות AI אינן עקביות בתגובות לשאלות על התאבדות, ולעיתים אינן מצליחות לזהות מצבי סיכון בינוניים או להכווין לעזרה מקצועית. 

במקרים קיצוניים יותר, תועדו בעולם אירועים שבהם אינטראקציה עם צ'אטבוטים נקשרה להתדרדרות נפשית ואף להתאבדויות, כולל תביעות משפטיות נגד חברות טכנולוגיה. כך אירע בפברואר 2024 כאשר נער כבן 14 מפלורידה התאבד לאחר שקיים קשר רגשי ממושך עם צ'אטבוט של Character.AI (דמות מ"משחקי הכס"). אמו תבעה את החברה (ואת גוגל, שהשקיעה בה) בטענה שהבוט תרם להתבודדותו והחמרת מצבו הנפשי. התביעה הסתיימה בהסדר פשרה בינואר 2026, לצד תביעות נוספות נגד הפלטפורמה.

גם הציבור הרפובליקני תומך בפיקוח

לצד השיקול הביטחוני, יש גם לחץ פוליטי. סקרים שנערכו בארה״ב מראים כי כ-78% מהרפובליקנים תומכים ברגולציה על AI, לצד כ-81% מהדמוקרטים. 

בנוסף, כ-64% מהרפובליקנים הביעו חשש מפיתוח הטכנולוגיה. החששות אינם רק סביב סייבר. הציבור מודאג גם מפגיעה בשוק העבודה, מהכוח של ענקיות הטכנולוגיה, מההשפעה הסביבתית של דאטה סנטרים, מצריכת חשמל ומים, ומכך שהטכנולוגיה מתקדמת מהר יותר מהיכולת של המדינה להבין אותה.

עבור המפלגה הרפובליקנית, זו כבר לא רק שאלה טכנולוגית. בחירות אמצע הקדנציה מתקרבות, והחשש הוא שהמרחק בין הקו הרשמי של הבית הלבן לבין הדאגה של הבוחרים יפגע גם מבחינה פוליטית.

לכן טראמפ עשוי לנסות למצוא דרך ביניים: לא רגולציה כבדה מדי, אבל גם לא שוק חופשי לחלוטין. 

האתגר: לא לעכב את התחרות 

הבעיה המרכזית מבחינת הממשל היא מציאת האיזון. 

מצד אחד, הממשל רוצה לשמור על החדשנות ולא לחנוק את התעשייה. מצד שני, הוא רוצה לדעת מה עומד להשתחרר לשוק, במיוחד כאשר מדובר במודלים בעלי יכולות ביטחוניות או סייבריות. רגולציה כבדה מדי עלולה לעכב את החברות האמריקאיות מול מתחרות מסין וממדינות אחרות. 

בנוסף, המהלך עלול ליצור מערכת יחסים מורכבת מול חברות טכנולוגיה שחוששות מעיכובים, עלויות נוספות וחשיפה של מידע רגיש. מנגד, רגולציה עשויה דווקא לחזק את השחקניות הגדולות שיחויבו לעמוד בדרישות וליצור חסם כניסה לסטארטאפים קטנים יותר.

המודל שקיים כיום בבריטניה, שבו גופים ממשלתיים בוחנים מודלים לצורכי בטיחות, עשוי להיות נקודת ייחוס. אבל בארה"ב, כל צעד כזה צפוי להיתקל בלחץ מצד עמק הסיליקון, מצד רפובליקנים שמתנגדים לרגולציה, ומצד חברות שחוששות מחשיפת מידע מסחרי רגיש לממשל.

 עבור המשקיעים, זה יכול להיות שינוי גדול. עד היום השוק תימחר את חברות ה-AI בעיקר לפי קצב הצמיחה, היכולת לגייס לקוחות והביקוש לתשתיות מחשוב. 

רגולציה ממשלתית על השקת מודלים יכולה להוסיף שכבת סיכון חדשה: עיכובים בהשקות של המודלים החדשים , עלויות בדיקה, דרישות בטיחות, מגבלות הפצה ואחריות משפטית. מצד שני, החברות הגדולות עשויות ליהנות מיתרון יחסי, בשל יכולת לעמוד בדרישות ולשתף פעולה עם הממשל.

בשלב זה הדיונים בבית הלבן נמצאים עדיין בשלבים מוקדמים, וטרם התקבלה החלטה סופית על אופי הפיקוח או על הקריטריונים לבדיקת המודלים. המהלך שממשל טראמפ בוחן הוא אינו שינוי כיוון חד, אלא התאמה למציאות חדשה שבה מודלי AI מתקדמים אינם מהווים רק כלי טכנולוגי, אלא גם פוטנציאל לסיכון אסטרטגי. 

השאלה המרכזית היא האם ניתן יהיה לשמור על האיזון בין בטיחות למהירות בעידן שבו הפער בין השתיים הולך ומצטמצם.

הוספת תגובה
1 תגובות | לקריאת כל התגובות

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    וואו זה פס האטה רציני. (ל"ת)
    נ 05/05/2026 09:49
    הגב לתגובה זו