Run:ai - בינה מלאכותית שמגייסת 75 מיליון דולר
הסטארטאפ Run:ai גייס 75 מיליון דולר בהובלת אינסייט וטייגר גלובל. החברה פיתחה תוכנה לניהול וייעול משאבי מחשוב של בינה מלאכותית וגייסה מאז הקמתה 118 מיליון דולר. משקיעים נוספים שהצטרפו בסבב גיוס C הם TLV Partners ו- S Capital VC
על פי החברה, כספי ההשקעה ישמשו להרחבת מרכז הפיתוח בתל אביב, קליטת מפתחים, מהנדסים, מומחי בינה מלאכותית, מנהלי מוצר ואנשי שיווק וכן להגדלת הרחבת הצוותים בעולם ובחינת רכישות אסטרטגיות של סטארטאפים.
מדובר במערכת הפעלה עבור מעבדי בינה מלאכותית, המבוססת על טכנולוגיות וירטואליזציה מתקדמות. פלטפורמת Atlas של החברה מאגדת את כל משאבי המחשוב של הארגון ומקצה באופן דינמי ואוטומטי משאבים לכל המשימות הרצות במקביל בהתאם לצורך ולתיעדופים הארגוניים. הפלטפורמה פועלת בשרתי החברה ובענן ומלווה את הארגון בכל השלבים ממחקר ופיתוח אפליקציות בינה מלאכותית ועד להפעלתן בסביבות פרודקשן.
החברה רשמה צמיחה חדה בשנה האחרונה עם גידול של פי 9 בהכנסות (אבל זה לא אומר הרבה. כמה הכנסות היו קודם? כמה כעת?) והגדלת הצוות פי שלושה ל-70 עובדים במשרדי החברה בישראל וארה"ב.
- סבב A הורחב: סטראטאפ הפינטק יוטילה גייס 22 מיליון דולר
- אנלייט קיבלה 403 מיליון דולר למימון פרויקטים בארה"ב
- המלצת המערכת: כל הכותרות 24/7
החברה הוקמה בשנת 2018 על ידי עמרי גלר, מנכ״ל החברה, שעבד בעברו ביחידה טכנולוגית במשרד ראש הממשלה. וד״ר רונן דר, סמנכ"ל טכנולוגיה, חוקר לשעבר באוניברסיטת תל אביב ומהנדס אלגוריתמים באנוביט ובאפל.
בין הלקוחות של Run:AI חברות מ-Fortune 500 וכן סטארטאפים שעושים שימוש בבינה מלאכותית במגוון תחומים כמו פיננסים, רכב, בריאות, ומוסדות אקדמיים מובילים.
עמרי גלר, מנכ"ל Run:ai: "בינה מלאכותית היא השלב הבא בהתפתחות האנושות. השנה צפויות ההשקעות העולמיות על בינה מלאכותית להסתכם ב-433 מיליארד דולר, עליה של קרוב ל-20% בשנה אחת. מגמה זו צפויה להתחזק ככל שהשימוש בבינה מלאכותית יתרחב והניהול שלה יתייעל".
רונן דר, מייסד שותף ומנהל טכנולוגי: "אנחנו עושים עבור חומרת בינה מלאכותית את מה ש-VMware והווירטואליזציה עשו לעולם המחשוב המסורתי - יותר יעילות, ניהול פשוט יותר ופרודוקטיביות משתמש גבוהה יותר. למחשוב CPU מסורתי יש תוכנה עשירה עם כלי פיתוח רבים להפעלת יישומים בקנה מידה. עם זאת, בינה מלאכותית פועלת על מאיצי חומרה ייעודיים כגון GPUs שיש להם מעט כלים שיעזרו ביישום ובקנה מידה שלהם. במערכת Atlas בנינו שכבת תוכנה מקורית בענן שמפשטת באופן אוטומטי את חומרת בינה מלאכותית ומאפשרת למפתחים ולאנשי IT לקבל יותר ממשאבי המחשוב ולהאיץ פרויקטים של בינה מלאכותית."
- בתמיכת אנבידיה: דיקטה מכניסה את ארון הספרים היהודי ל-AI
- עתיד ההייטק: יש עוד הרבה עבודה אבל החוסן הישראלי לא נעלם מן העולם
- תוכן שיווקי שוק הסקנדרי בישראל: הציבור יכול כעת להשקיע ב-SpaceX של אילון מאסק
- "ל-OpenAI יש חור תזרימי של 207 מיליארד דולר"

אמזון משיקה שבב AI חדש שיתחרה באנבידיה- "השבב שלנו יעיל יותר וחוסך בעלויות"
אחרי שגוגל השיקה שבב מתחרה לאנבידיה - מגיע תורה של אמזון; במקביל משיקה החברה סוכני AI למוקד שירות ותיקון תקלות, אבטחה ולפיתוח תוכנה
אחרי שגוגל השיקה שבב חדש לשוק ה-AI, גם אמזון משקיה שבב חדש וטוענת שהוא מהווה תחרות עם חלק מרכזי מהיכולות של השבב של אנבידיה. על פי ההערכות השבב של גוגל מתחרה בסגמנט של 15% בערך מהיקף השוק של השבב של של אנבידיה שלה יש פלטפורמה מלאה. באמזון מדברים על תחרות חזקה עוד יותר.
באמזון טוענים כי "השב שלנו יעיל יותר וחוסך בעלויות". השבב החדש הוא תוצר של מחלקת השבבים ב-AWS חטיבת הענן של אמזון והוא נוצר כדי לצמצם תלות במעבדי GPU של אמזון ולהבטיח את יכולתה של החברה בעיבוד והסקה של מערכות AI מורכבות.
שבב ה-AI של אמזון יקרא Trainium3 ולפי הצהרות החברה, מדובר בשבב שמציע ביצועים טובים יותר בעלות נמוכה יותר, ומאפשר ללקוחות להריץ אימונים ויישומי AI בעלות נמוכה ב-50% לעומת השימוש במעבדים של אנבידיה.
המוצר החדש מצטרף לקו שבבי הבינה המלאכותית של AWS, הכולל גם את Inferentia3 לתהליכי הסקה (Inference) ואת Graviton4 לעומסי עבודה כלליים בענן. מטרת החברה ברורה: להפחית את התלות באנבידיה, לשפר את הרווחיות של תשתיות הענן שלה ולתת מענה למגמה הגוברת של חישובים עתירי משאבים.
- השוד הענקי בלונדון והמוצר המהפכני ששינה את שוק הצילום
- יותר מ־900 מתקנים: קנה המידה האמיתי של AWS נחשף
- המלצת המערכת: כל הכותרות 24/7
מטרה ברורה: לצמצם את הפער מול אנבידיה
השבב Trainium3, שיופעל בשירותי הענן של AWS החל מ־2026, מאפשר אימון מודלים מורכבים יותר בזמן קצר יותר, לטענת אמזון, עד פי ארבעה בהשוואה לדור הקודם של השבב. בנוסף, הוא תומך בתקשורת מהירה יותר בין יחידות עיבוד, דבר קריטי באימון מודלים רחבי היקף.
דיקטה. קרדיט: רשתות חברתיותבתמיכת אנבידיה: דיקטה מכניסה את ארון הספרים היהודי ל-AI
העמותה הישראלית השיקה שלושה מודלי קוד פתוח שמאומנים על מאות מיליארדי טוקנים בעברית ובאנגלית, ומציבים סטנדרט חדש ליכולות AI מקומיות; טכנולוגיות האימון שבו השתמשה היא של אנבידיה
בזמן שמודלי השפה הגדולים ממשיכים להתקדם במהירות ברחבי העולם, רובם עדיין נשענים על אנגלית כשפה מרכזית, ורק בהמשך מקבלים עדכוני התאמה לשפות אחרות. היום מציגה דיקטה חלופה יוצאת דופן: סדרת Dicta-LM 3.0, אוסף מודלים גדולים וריבוניים בקוד פתוח, שתוכננו לספק יכולות עומק בעברית כבר משלב האימון הראשוני, לא כתוספת, אלא כבסיס.
בניגוד למודלי שפה בינלאומיים שנשענים כמעט לחלוטין על גופי מידע באנגלית, המודל של דיקטה מאומן מראש על מאגר דיגיטלי עצום של טקסטים עבריים, הכוללים מקורות פומביים, ארכיונים, אוספי תכנים
מהספרייה הלאומית, חומרים שנמסרו לעמותה בידי גופים ציבוריים ופרטיים, ונתונים עבריים ייעודיים שפותחו במיוחד לצורכי המחקר. שילובם עם דאטה איכותי באנגלית יוצר מודלים שמבינים עברית ברמת עומק תרבותית ולשונית, תוך שמירה על יכולות ההסקה והידע הגלובלי של המודלים הבסיסיים
שעליהם הותאמו.
ברמה הטכנית, מדובר באחת ההשקות החשובות ביותר בתחום ה-AI המקומי: מודלים במשקל 24 מיליארד (על בסיס Mistral), 12 מיליארד (על בסיס מודל בסיסי של אנבידיה) ו-1.7 מיליארד פרמטרים (שמיועד גם למכשירי קצה אישיים). המודלים הללו הוכשרו על כ-150 מיליארד טוקנים (כ-75% עברית, 25% אנגלית), תוך הרחבת חלון ההקשר המקורי של המודלים לכ-65 אלף טוקנים, כלומר כ-26 אלף מילים בעברית. כל שלושת המודלים זמינים לשימוש חופשי, ניתנים להורדה ישירות מ-HuggingFace, וניתנים להרצה הן בתצורה מלאה והן בגרסאות דחוסות כמו FP8 ו-4bit.
בנוסף, המודל הקטן זמין גם דרך אתר דיקטה.
שלושה מודלים - שלוש מטרות
כאמור, המודל המוביל של הסדרה החדשה מבוסס על Mistral Small 3.1, והוא מותאם להנמקה מתקדמת ולשיחה ארוכת־טווח. בנוסף אליו, ישנו דגם קל משקל המבוסס על ארכיטקטורת אנבידיה Nemotron Nano V2, המאפשר חלון הקשר ארוך משמעותית וצריכת זיכרון נמוכה.
- אמזון משיקה שבב AI חדש שיתחרה באנבידיה- "השבב שלנו יעיל יותר וחוסך בעלויות"
- "אנבידיה נסחרת במכפיל שפל היסטורי" בנק אוף אמריקה ממליץ לנצל את ההזדמנות
- המלצת המערכת: כל הכותרות 24/7
המודל הקטן יותר, מיועד להרצה על חומרה צרכנית, כולל מחשבים אישיים ואפילו מכשירי קצה. בכל הדגמים ניתן למצוא תמיכה מובנית ב-tool calling, המאפשרת חיבור לכלים חיצוניים, API וסביבות
מידע בזמן ריצה. השילוב הזה אמור להיות אטרקטיבי לארגונים ישראליים, עם פתרונות AI ריבוניים שיכולים לרוץ on-prem על תשתיות קיימות, מבלי להסתמך על ענן זר או העברת מידע רגיש לחו״ל.
