מנכ״ל אנבידיה, ג׳נסן הואנג, בכנס GTC / צילום: Reuters
כנס המפתחים השנתי של אנבידיה, GTC 2026, נפתח הערב (ב') עם נאום הפתיחה של מנכ"ל ומייסד החברה ג'נסן הואנג. הכנס, שנחשב לאחד האירועים המרכזיים בתעשיית הבינה המלאכותית, הפך בשנים האחרונות לזירה שבה אנבידיה מציגה את הכיוון האסטרטגי של התחום כולו.
אבל, אם בעבר התמקדו ההכרזות בעיקר בשבבי GPU בודדים, הרי שהפעם הדגש הוא על תשתיות מחשוב שלמות שנועדו להפעיל מרכזי נתונים של בינה מלאכותית בקנה מידה עצום.
● ענקית השבבים תשקיע 2 מיליארד דולר בנביוס שהוקמה ע"י ישראלים
● הקווים האדומים של אנתרופיק: כך הפכה ענקית ה־AI לאויבת הפנטגון
בלב ההכרזות עמדה בין היתר פלטפורמת Vera Rubin, שנכנסה כעת לייצור מסחרי. מדובר בדור חדש של תשתית מחשוב לבינה מלאכותית הכולל שבעה שבבים חדשים וחמש מערכות בתצורת ארונות שרתים. המערכות נועדו להפעיל את כל שלבי העבודה של מודלי AI, החל מאימון ועד הפעלת מערכות הסקה בזמן אמת. הפלטפורמה מכוונת במיוחד לעידן ה-Agentic AI - סוכני הבינה המלאכותית. הכוונה לעידן שבו מערכות בינה מלאכותית לא רק מגיבות לפקודות של משתמשים אלא פועלות כסוכנים עצמאיים שמבצעים משימות מורכבות ואף מתקשרים ביניהם.
ממעבד בודד למרכז מחשוב שלם
אחת המגמות המרכזיות שעולות מההכרזות היא המעבר של אנבידיה מתכנון שבבים בודדים לבניית יחידות מחשוב שלמות. במקום להציג מעבד גרפי אחד שמאיץ מודלי בינה מלאכותית, החברה בונה כיום מערכות שרתים שלמות שבהן מאות מעבדים פועלים יחד כיחידה אחת. הגישה הזו נועדה להתמודד עם הדרישות ההולכות וגדלות של מרכזי נתונים שמפעילים מודלי בינה מלאכותית בקנה מידה עצום, במיוחד בעידן שבו מערכות AI פועלות כסוכנים עצמאיים ומבצעות משימות מורכבות לאורך זמן.
במסגרת זו הציגה החברה מערכת חדשה בשם Vera CPU Rack, הכוללת 256 מעבדים מרכזיים מסוג Vera. בעוד שהדיון הציבורי סביב בינה מלאכותית מתמקד לרוב במעבדי GPU, שתפקידם לבצע את החישובים הכבדים של מודלי ה-AI, המעבדים המרכזיים (הCPU) אחראים על ניהול המשימות סביבם. הם מטפלים בתזמון העבודה, בהעברת הנתונים בין רכיבי המערכת, בניהול הזיכרון ובהפעלה של אלפי תהליכים במקביל. בעידן של מערכות סוכנים (Multi-Agent), שבהן מודלים רבים פועלים בו זמנית ומתקשרים זה עם זה, עומסי העבודה על המעבדים המרכזיים גדלים במהירות.
במצבים כאלה נוצרת לעיתים בעיה: המעבדים הגרפיים, שנועדו לבצע את חישובי הבינה המלאכותית עצמם, נאלצים להמתין לנתונים או לפקודות שמגיעות מהמעבדים המרכזיים. המשמעות היא שחלק מכוח החישוב היקר של ה-GPU אינו מנוצל במלואו. כך, מערכת Vera CPU Rack נועדה לפתור את צוואר הבקבוק הזה באמצעות ארון שרתים שלם המוקדש לניהול עומסי העבודה של מרכז הנתונים, ובכך לאפשר למעבדי ה-GPU לפעול ברציפות וביעילות גבוהה יותר.
פירות ראשונים לשיתוף הפעולה עם גרוק
הכרזה נוספת נוגעת למערכת Groq 3 LPX Rack, הכוללת 256 יחידות של שבב Groq-3 LPU. מדובר במעבד שתוכנן במיוחד עבור משימות הסקה של בינה מלאכותית, כלומר השלב שבו מודלים שכבר אומנו מייצרים תשובות ותחזיות בזמן אמת עבור משתמשים. משימות כאלה דורשות לעיתים קונטקסט רחב במיוחד ומהירות תגובה גבוהה, למשל כאשר מערכות AI מייצרות טקסטים, קוד או החלטות בזמן אמת עבור מיליוני משתמשים.
שיתוף הפעולה סביב השבבים הללו מגיע לאחר עסקת ענק בין אנבידיה לסטארט-אפ האמריקאי גרוק, במסגרתה חתמו החברות על הסכם רישוי טכנולוגי בהיקף של כ-20 מיליארד דולר. עוד כלל ההסכם את כך שמייסד החברה ג'ונתן רוס, ממפתחי שבב ה-TPU של גוגל, ובכירים נוספים הצטרפו לאנבידיה.
גרוק הוקמה בשנת 2016 במטרה להתחרות באנבידיה בתחום שבבי הבינה המלאכותית, ובשנים האחרונות התמקדה בפיתוח מאיצים ייעודיים לשלב ההסקה, שנחשב לאחד משדות הקרב המרכזיים בתעשייה.
המערכת החדשה משלבת כאמור את שבבי Groq-3 עם רכיבי תקשורת מתקדמים של אנבידיה, ומיועדת להאיץ את קצב הפקת הטוקנים ואת ביצועי ההסקה של מודלים גדולים
טכנולוגיה ישראלית בלב התשתית
חלק מרכזי מהטכנולוגיות שהוצגו בכנס פותחו במרכזי המחקר והפיתוח של אנבידיה בישראל. בין היתר מדובר בארכיטקטורת BlueField-4 STX, מערכת אחסון חדשה שתוכננה במיוחד עבור עומסי עבודה של בינה מלאכותית. הארכיטקטורה מאפשרת שיפור משמעותי בביצועים וביעילות האנרגטית בהשוואה למערכות אחסון מסורתיות.גם תחום התקשורת בין רכיבי החישוב נשען במידה רבה על טכנולוגיות שפותחו בישראל. רכיבים כמו מתגי NVLink, כרטיסי ConnectX ורכיבי תקשורת נוספים משמשים לחיבור בין מאות ואלפי המעבדים הפועלים במרכזי נתונים של AI. חיבור מהיר כזה הופך קריטי במיוחד בעידן שבו מערכות בינה מלאכותית מתקשרות זו עם זו ומעבדות מידע בקצב גבוה במיוחד.
במקביל, ולצד מרכזי הנתונים המסורתיים מציגה אנבידיה גם כיוונים חדשים למחשוב מבוסס AI. החברה הודיעה כי התאימה מספר פלטפורמות חומרה לפעולה בחלל, במטרה לאפשר הקמת מרכזי נתונים במסלול סביב כדור הארץ. המערכות תוכננו להתמודד עם מגבלות משקל, גודל וצריכת אנרגיה, ונועדו לאפשר בעתיד הפעלת תשתיות מחשוב גם מחוץ לאטמוספירה.
מודלים פתוחים ושיתופי פעולה חדשים
לצד החומרה הציגה אנבידיה גם שורה של הכרזות בתחום התוכנה והמודלים. החברה חשפה מספר מודלי בינה מלאכותית חדשים בקוד פתוח, בהם Nemotron 3 Ultra, Omni ו-VoiceChat, שיהיו זמינים למפתחים דרך פלטפורמת Hugging Face. המודלים מיועדים לשימושים שונים, כולל שיחות בזמן אמת עם בינה מלאכותית והבנה משולבת של טקסט, קול ווידאו.
בנוסף הכריזה אנבידיה על הקמת Nemotron Coalition, קואליציה של חברות שתעבוד יחד על פיתוח מודלי שפה מתקדמים בקוד פתוח. בין החברות המשתתפות נמצאות, פרפלקסטי, מיסטרל, קרוזר, LangChain ו-Thinking Machines Lab של מירה מוראטי. המטרה היא לשלב נתונים, מומחיות ומשאבי מחשוב כדי להאיץ את פיתוח הדור הבא של מודלי הבינה המלאכותית.
החברה הציגה גם את Dynamo 1.0, מערכת תוכנה בקוד פתוח לניהול עומסי הסקה של מודלים בקנה מידה גדול. המערכת נועדה לאפשר לארגונים ולחברות ענן להפעיל מודלים גדולים במהירות וביעילות גבוהה יותר. בנוסף הוצג NemoClaw, רכיב תוכנה שמאפשר להוסיף מנגנוני אבטחה ופרטיות למערכות סוכני בינה מלאכותית.
לצד זאת הודיעה אנבידיה גם על שיתופי פעולה חדשים בתחומי הרובוטיקה והרכב האוטונומי. החברה משתפת פעולה עם יצרניות רכב ובהן יונדאי, קיה, BYD, Geely, איסוזו וניסאן לפיתוח מערכות נהיגה אוטונומית המבוססות על פלטפורמת DRIVE Hyperion. במקביל היא פועלת עם חברות בתחום הרובוטיקה, כולל יצרניות של רובוטים דמויי אדם, במטרה לפתח מערכות בינה מלאכותית הפועלות בעולם הפיזי.