פארק 'העברית' יוקם בירושלים ב-522 מיליון שקל
חברת גב ים 0% ונשלטת בשרשור ע"י מגה אור -0.05% וצחי נחמיאס ומחזיקה ב-66% מהזכויות להקמת פרויקט 'פארק העברית' בירושלים, בחרה יחד עם האוניברסיטה העברית בקבוצת שטרן חברת אלקטרה מערכות להקמת המתחם.
הפרויקט שמיועד לחברות ההייטק, יכלול ארבעה בנייני משרדים בשטח בנוי של 271 אלף מ"ר, בין הרחובות ליבוביץ' ובלפור בכניסה לקמפוס גבעת רם בירושלים.
בשלב זה ייבנו שני בנייני משרדים מעל 7 קומות מרתף בשטח בנוי של כ-89 אלף מ"ר. אחר כך ייבנה הבניין השלישי בשטח של כ-40 אלף מ"ר, כאשר הבנייה צפויה להתחיל בעוד מספר חודשים. שני השלבים הללו מוערכים ב-522 מיליון שקל.
במסגרת השלב השלישי שנמצא כעת בתהליך שינוי תב"ע יבנה הבניין הרביעי בשטח של 142 אלף מ"ר. לוח הזמנים להשלמת הפרויקט מיום תחילת העבודה הנו 28 חודשים.
קבוצת שטרן גם מדווחת כי היא בשלבי הקמה של 20 פרויקטים נוספים בארץ, כאשר אחד מהם הוא סיום הקמת בניין משרדים עבור מותג גטי (גנים טכנולוגיים ירושלים) כאשר היזם הוא ישרס 0.9% . הבניין הממוקם בהר חוצבים וצפוי לכלול 30 קומות, מה שיהפוך אותו לגבוה בעיר.

אמזון משיקה שבב AI חדש שיתחרה באנבידיה- "השבב שלנו יעיל יותר וחוסך בעלויות"
אחרי שגוגל השיקה שבב מתחרה לאנבידיה - מגיע תורה של אמזון; במקביל משיקה החברה סוכני AI למוקד שירות ותיקון תקלות, אבטחה ולפיתוח תוכנה
אחרי שגוגל השיקה שבב חדש לשוק ה-AI, גם אמזון משקיה שבב חדש וטוענת שהוא מהווה תחרות עם חלק מרכזי מהיכולות של השבב של אנבידיה. על פי ההערכות השבב של גוגל מתחרה בסגמנט של 15% בערך מהיקף השוק של השבב של של אנבידיה שלה יש פלטפורמה מלאה. באמזון מדברים על תחרות חזקה עוד יותר.
באמזון טוענים כי "השב שלנו יעיל יותר וחוסך בעלויות". השבב החדש הוא תוצר של מחלקת השבבים ב-AWS חטיבת הענן של אמזון והוא נוצר כדי לצמצם תלות במעבדי GPU של אמזון ולהבטיח את יכולתה של החברה בעיבוד והסקה של מערכות AI מורכבות.
שבב ה-AI של אמזון יקרא Trainium3 ולפי הצהרות החברה, מדובר בשבב שמציע ביצועים טובים יותר בעלות נמוכה יותר, ומאפשר ללקוחות להריץ אימונים ויישומי AI בעלות נמוכה ב-50% לעומת השימוש במעבדים של אנבידיה.
המוצר החדש מצטרף לקו שבבי הבינה המלאכותית של AWS, הכולל גם את Inferentia3 לתהליכי הסקה (Inference) ואת Graviton4 לעומסי עבודה כלליים בענן. מטרת החברה ברורה: להפחית את התלות באנבידיה, לשפר את הרווחיות של תשתיות הענן שלה ולתת מענה למגמה הגוברת של חישובים עתירי משאבים.
- השוד הענקי בלונדון והמוצר המהפכני ששינה את שוק הצילום
- יותר מ־900 מתקנים: קנה המידה האמיתי של AWS נחשף
- המלצת המערכת: כל הכותרות 24/7
מטרה ברורה: לצמצם את הפער מול אנבידיה
השבב Trainium3, שיופעל בשירותי הענן של AWS החל מ־2026, מאפשר אימון מודלים מורכבים יותר בזמן קצר יותר, לטענת אמזון, עד פי ארבעה בהשוואה לדור הקודם של השבב. בנוסף, הוא תומך בתקשורת מהירה יותר בין יחידות עיבוד, דבר קריטי באימון מודלים רחבי היקף.
דיקטה. קרדיט: רשתות חברתיותבתמיכת אנבידיה: דיקטה מכניסה את ארון הספרים היהודי ל-AI
העמותה הישראלית השיקה שלושה מודלי קוד פתוח שמאומנים על מאות מיליארדי טוקנים בעברית ובאנגלית, ומציבים סטנדרט חדש ליכולות AI מקומיות; טכנולוגיות האימון שבו השתמשה היא של אנבידיה
בזמן שמודלי השפה הגדולים ממשיכים להתקדם במהירות ברחבי העולם, רובם עדיין נשענים על אנגלית כשפה מרכזית, ורק בהמשך מקבלים עדכוני התאמה לשפות אחרות. היום מציגה דיקטה חלופה יוצאת דופן: סדרת Dicta-LM 3.0, אוסף מודלים גדולים וריבוניים בקוד פתוח, שתוכננו לספק יכולות עומק בעברית כבר משלב האימון הראשוני, לא כתוספת, אלא כבסיס.
בניגוד למודלי שפה בינלאומיים שנשענים כמעט לחלוטין על גופי מידע באנגלית, המודל של דיקטה מאומן מראש על מאגר דיגיטלי עצום של טקסטים עבריים, הכוללים מקורות פומביים, ארכיונים, אוספי תכנים
מהספרייה הלאומית, חומרים שנמסרו לעמותה בידי גופים ציבוריים ופרטיים, ונתונים עבריים ייעודיים שפותחו במיוחד לצורכי המחקר. שילובם עם דאטה איכותי באנגלית יוצר מודלים שמבינים עברית ברמת עומק תרבותית ולשונית, תוך שמירה על יכולות ההסקה והידע הגלובלי של המודלים הבסיסיים
שעליהם הותאמו.
ברמה הטכנית, מדובר באחת ההשקות החשובות ביותר בתחום ה-AI המקומי: מודלים במשקל 24 מיליארד (על בסיס Mistral), 12 מיליארד (על בסיס מודל בסיסי של אנבידיה) ו-1.7 מיליארד פרמטרים (שמיועד גם למכשירי קצה אישיים). המודלים הללו הוכשרו על כ-150 מיליארד טוקנים (כ-75% עברית, 25% אנגלית), תוך הרחבת חלון ההקשר המקורי של המודלים לכ-65 אלף טוקנים, כלומר כ-26 אלף מילים בעברית. כל שלושת המודלים זמינים לשימוש חופשי, ניתנים להורדה ישירות מ-HuggingFace, וניתנים להרצה הן בתצורה מלאה והן בגרסאות דחוסות כמו FP8 ו-4bit.
בנוסף, המודל הקטן זמין גם דרך אתר דיקטה.
שלושה מודלים - שלוש מטרות
כאמור, המודל המוביל של הסדרה החדשה מבוסס על Mistral Small 3.1, והוא מותאם להנמקה מתקדמת ולשיחה ארוכת־טווח. בנוסף אליו, ישנו דגם קל משקל המבוסס על ארכיטקטורת אנבידיה Nemotron Nano V2, המאפשר חלון הקשר ארוך משמעותית וצריכת זיכרון נמוכה.
- אמזון משיקה שבב AI חדש שיתחרה באנבידיה- "השבב שלנו יעיל יותר וחוסך בעלויות"
- "אנבידיה נסחרת במכפיל שפל היסטורי" בנק אוף אמריקה ממליץ לנצל את ההזדמנות
- המלצת המערכת: כל הכותרות 24/7
המודל הקטן יותר, מיועד להרצה על חומרה צרכנית, כולל מחשבים אישיים ואפילו מכשירי קצה. בכל הדגמים ניתן למצוא תמיכה מובנית ב-tool calling, המאפשרת חיבור לכלים חיצוניים, API וסביבות
מידע בזמן ריצה. השילוב הזה אמור להיות אטרקטיבי לארגונים ישראליים, עם פתרונות AI ריבוניים שיכולים לרוץ on-prem על תשתיות קיימות, מבלי להסתמך על ענן זר או העברת מידע רגיש לחו״ל.
