מייסדי מג'סטיק לאבס: מאסומי ריינדס (מימין), עופר שחם ושאה ראבי
מג'סטיק לאבס (Majestic Labs) נחשבת בחודשים האחרונים לאחת החברות המסתוריות והמסקרנות שפעולות בישראל - היא הוקמה בידי צוות בכירים לשעבר במחלקות ההנדסה של גוגל ומטא וגייסה 100 מיליון דולר תוך הבטחה לפתח שרת בינה מלאכותית שיעקוף את אנבידיה ביעילות לכל פעולת עיבוד AI (מחיר לאסימון, או "טוקן").
● המעבדה הראשונה מחוץ ליקנעם: אנבידיה שוכרת חצי דונם בראשון לציון
● המוניים, קרים ואכזריים: גל הפיטורים ב־2026 שובר את כללי המשחק בהייטק
המנכ"ל עופר שחם, שהקים בהזמנת מארק צוקרברג את מעבדת השבבים של מטא, לא חשף עד כה את הדרך שבה תתחרה החברה באנבידיה עד היום (ה'). בחשיפה ראשונה לתקשורת הישראלית, מסביר שחם מה עומד מאחורי השרת שרוצה לפתור את אחד מצווארי הבקבוק הגדולים שבשרתי הבינה המלאכותית של חברות כמו אנבידיה ו-AMD - מחסור חמור בזיכרון.
עופר שחם, ושותפיו להקמת החברה - האמריקאים שאה ראבי ומאסומי ריינדס - לא הסתפקו בפיתוח מעבד גרפי חדש, אלא בהנדסה של שרת חדש מן היסוד תחת השם "פרומתאוס" מתוך הנחה ששחרור הפקק בעיבוד הבינה המלאכותית מתחיל משם.
כל שרת של החברה הישראלית מצויד בשבבי זיכרון שמספקת כמות זיכרון הגבוהה פי 100 משרת אנבידיה סטנדרטי שבו משובצים מעבדי בלאקוול (B200). בזכות מבנה שמאפשר גישה מורחבת לזיכרון עבור כל מעבד, נפח הזיכרון הזמין למעבדים של מג'סטיק לאבס עומד על 128 טרה־בייט, אך הארכיטקטורה של השרת - האופן שבו מחווטים רכיבי הזיכרון המרכזיים לשבבים השונים - מספקים בפועל פי אלף מכמות הזיכרון הזמינה למעבד בלאקוול ממוצע של אנבידיה, שמוערך בכ-192 גיגה־בייט בלבד.
שחם לא חושף באיזה סוג של זיכרון מדובר - אך מודה כי לא מדובר בסוג הזיכרון הנפוץ במעבדי אנבידיה - זיכרון רחב הפס (HBM). לפי ההערכה, החברה רוכשת את רכיבי הזיכרון משלוש חברות שבבי הזיכרון הגדולות: מיקרון, סמסונג ו-SK הייניקס. במקום מעבדי ה-GPU של אנבידיה, מציעה מג'סטיק לאבס מעבדים משלה בשם "איגנייט" (Ignite), או AIU, בקיצור. אלה פותחו בהתבסס על קניין רוחני של ARM, תכנון מקורי של מג'סטיק ועל פלטפורמת הקוד הפתוח ריסק-5 (RISC-V) המאפשרת לבצע ולתכנן את פעולות החישוב של הבינה המלאכותית באופן שמותאם לדרישות של חברות שונות.
מאחר ששליטתה של אנבידיה באה לידי ביטוי לא רק באספקת מעבדים גרפיים, אלא גם בשליטה במערכת ההפעלה לבינה המלאכותית "קודה" (CUDA), פותחו מעבדי ה-AIU כך שיאפשרו למתכנתי AI לפתח יישומים בשפות כמו פייטורץ' (PyTorch), שפת הפיתוח המקובלת על מומחי AI בסביבת אנבידיה, ועל גבי מערכת ההפעלה טרייטון של OpenAI שהפכה למתחרה הגדולה של קודה, אף שאנבידיה היא אחת המממנות הגדולות של OpenAI באחרונה.
הבעיה הארכיטקטונית וההבדל מאינבידיה
הארכיטקטורה החדשה של מג'סטיק לאבס מייתרת, לדברי המנכ"ל, את הצורך בהצטיידות משמעותית במעבדי תקשורת - תפקיד אותם ממלאים מעבדי מלאנוקס לשעבר בשרתי אנבידיה.
"אין לנו צורך בתקשורת בין המעבדים כיוון שהתקשורת נעשית דרך הזיכרון, בדיוק כפי שהדבר קורה במחשוב סטנדרטי - כמו בתקשורת בין ליבות במעבד ליבה רגיל", אומר שחם. "הצורך בכל כך הרבה שבבי תקשורת בחוות השרתים נולד בשל כמות הזיכרון הקטנה שנתונה לכל אחד ממעבדי אנבידיה. היא מאלצת את המעבדים לתקשר זה עם זה.
"זו הסיבה שכדי לספק שרת אחד יציב, אנבידיה נאלצו לבנות יצור כלאיים יקר- ארון שרתים בן 72 מעבדים עם תקשורת רחבת פס בין אחד לשני (שרת הפרימיום של אנבידיה המכונה NVLink - א"ג) - אבל בגלל חוסר היעילות של הפעילות שלהם, הם מגיעים מהר מאוד לרף מקסימום הזיכרון שהם יכולים לעבד וממתינים לדאטה שיגיע אליהם, ובינתיים הם עומדים בחוסר מעס. ועם כמות הפרמטרים ההולכת וגדלה של מודלי הקצה שמשחררות חברות כמו אנתרופיק, OpenAI וג'מיני - חברות נאלצות לרכוש עוד ועוד שרתים כדי לאפשר את כח העיבוד העצום הזה.
"מודלי הקצה, כמו אלה של ג'מיני או GPT מתקשים לפעול בזיכרון של אפילו 10 מעבדים גרפיים, ולכן הם נדרשים לארונות שרתים שלמים של 72 מעבדי אנבידיה שנתפסים ככאלה שיכולים להתמודד עם המודלים הגדולים ביותר.
"ג'נסן הואנג אבל הציג לאחרונה שקף שגם בארון שכזה המודלים כבר מתקשים לעבור וכבר ב- 400 אלף טוקנים (אסימונים - יחידת העיבוד הבסיסית של AI - א"ג) קיימת דעיכה, שלא לדבר על מודלים של 5 טריליון פרמטרים שיושקו לקראת סוף השנה או תחילת השנה הבאה.
"הצורך לשבץ כל כך הרבה מעבדים גרפיים כדי להתמודד עם המודלים הללו מכתיב צריכת אנרגיה שעולה באופן מעריכי ולא בר קיימא. ואז מגיעים לתקרת הזכרון, מה שמכונה בתעשייה כ"קיר הזיכרון", והמעבדים יושבים ללא מעש מחצית מהזמן, שורפים אנרגיה וממתינים לדאטה שיזרום אליהם. התוצאה היא החזר קטן וצריכת אנרגיה עולה עבור כל שבב גרפי שנוסף - זה לא רק מחסור בזיכרון - זו פשוט בעיה ארכיטקטונית במודל שבו עובדת הבינה המלאכותית כיום".
בעיה זו מכתיבה הוצאות הון אדירות בקרב חמש ענקיות הענן לבדן: אמזון , גוגל, מיקרוסופט , מטא וטסלה עומדות על 443 מיליארד דולר בשנה שעברה והן צפויות להאמיר ל-602 מיליארד דולר השנה.
זאת אומרת שאתם תשווקו שרתים שיהיו זולים מאלה של אנבידיה?
"אנחנו לא מתחרים במחיר ליחידת עיבוד, אלא במחיר לתוצאה - העלות לכל טוקן, או אסימון. אנחנו מציעים 'מכונה' שמסוגלת לייצר בין פי 10 לפי 50 יותר 'טוקנים' למגה־וואט אחד עבור כל דולר שהושקע בבניית חוות שרתים.
"יש לי לקוח שבונה כעת חוות שרתים בהיקף פעילות חשמלית של 500 מגה־וואט - מה שהוא שואל אותי הוא לאו דווקא כמה יעלה לו השרת, אלא כמה אסימונים הוא ימכור לכל מגה־וואט, ואני יודע לתת לו עד פי 50 ממה שמקובל בשוק. להציע מוצר זול יותר במקרה הזה הוא לאו דווקא מודל בר קיימא עבורנו, כך אתה מקבל 'מירוץ לתחתית'. אין לי יתרון בעלויות מול אנבידיה כי יש כאן גם משחק של כמויות והם יכולים לספק נפחים גדולים בעלות נמוכה ולספק הנחות. אנחנו רוצים למכור את המוצר שלנו ברווח יפה".
המוצר המוגמר יגיע ללקוחות בשנה הבאה
על פי שחם, השרתים והשבבים של מג'סטיק בנויים קודם כל לצרכי הסקה והפעלת סוכנים (inference) מאשר אימון מודלים, אם כי הם יוכלו להתאים גם אליהם. החברה מתמקדת במודלי שפה ורשתות עצביות מבוססות גרף או טבלה - ופחות במודלי תמונות ווידאו.
מתי תתחילו למכור את השרתים והמעבדים?
"אנחנו כבר עובדים עם מספר לקוחות בשלב האבטיפוס, אבל המוצר המוגמר יישלח ללקוחות הראשונים שלנו בשנה הבאה. אנחנו כבר מקבלים הזמנות ועובדים עם מספר לקוחות כדי להתאים טוב יותר את המוצר שלנו לצרכים שלהם".
חברה שהוכיחה ללקוחות, ככל הנראה ענקיות ענן, שהיא יכולה להגדיל את יעילות עיבוד מודלי ה-AI פי 50 - זה נשמע כמו נכס אטרקטיבי מאוד לחברות כמו אנבידיה או אחת מענקיות הענן. קיבלתם הצעות רכישה?
"שאלו אותי לאחרונה: האם אנחנו בונים מוצר או שהחברה היא המוצר. התשובה היא שאנחנו בונים מוצר - בניתי מוצרים כאלה עבור גוגל, עבור מטא, את המעבדים הראשונים עבור דארפ"א (המפא"ת האמריקאי - א"ג). אנחנו כאן כדי לבנות מוצר שיכול לפתור בעיות של תעשיות שלמות.
"ברור שעל הדרך הדברים עלולים לקרות - אבל המטרה שלנו היא לבנות מוצר שהלקוחות שלנו - חברות שבונות חוות שרתים לעיבוד AI - נהנים ממנו, שמשפר את צריכת האנרגיה שלהם, וכתוצאה לחסוך בהוצאות אנרגיה רבות שעוד מתוכננות בטווח הארוך. היינו צריכים לעזוב את העבודות הקודמות שלנו בענקיות הטכנולוגיה כדי להבין מהם צווארי הבקבוק ואלה הגיעו הרבה יותר מהר ממה שחשבנו. כשהקמנו את החברה לפני שנתיים וחצי אמרנו שבעיית הזיכרון תהיה כאב הראש הגדול ביותר של התעשייה, היום היא חמורה פי עשר ממה שחשבנו שהיה תהיה בשלב הזה".