אנתרופיק / צילום: Reuters, DADO RUVIC
איך חברה שבנתה לעצמה תדמית של מעבדת AI אחראית וזהירה מצאה את עצמה בעימות ישיר עם הפנטגון ועם הבית הלבן ואף מגישה תביעה נגדם? בשבועות האחרונים אנתרופיק היא לא רק עוד מתחרה של OpenAI, אלא חברה שהפכה לשדה קרב רעיוני, מסחרי ופוליטי.
תחילת הסיפור דווקא בשיתוף פעולה. בשנה שעברה פנה הפנטגון לחברות הבינה המלאכותית המובילות וביקש לבחון כיצד ניתן לשלב את הטכנולוגיה שלהן במערכות הביטחון. גוגל, OpenAI, xAI ואנתרופיק נענו לקריאה, אך דווקא אנתרופיק בלטה במהירות. היא עבדה לצד חברת הדאטה פלנטיר, השתלבה היטב במערכות קיימות והייתה בין החברות היחידות שקיבלו אישור לעבוד בסביבות מסווגות.
● עושה וורן באפט: המיליארדר הפרו-ישראלי נערך להנפקת ענק
● התעשייה המפתיעה שעשויה להשתבש בשל המחסור בגז הקטארי
עבור מערכת הביטחון האמריקאית זו הייתה הוכחה לכך שגם חברה שמדגישה בטיחות ואתיקה יכולה להיות שימושית מאוד בשדה המבצעי. לפי הדיווחים, מודלי הבינה המלאכותית שלה סייעו לניתוח מודיעין, לעיבוד כמויות עצומות של מידע, לסיכום שיחות ולזיהוי דפוסים בתוך מאגרי נתונים גדולים. במילים אחרות, הצבא האמריקאי מצא ערך מיידי בדיוק במקום שבו AI מצטיין - עיבוד מהיר של מידע וזיהוי קשרים נסתרים.
הנהלת אנתרופיק מצידה הציגה גישה לפיה בינה מלאכותית יכולה לחזק את ביטחון ארה"ב ולסייע לה להתמודד עם יריבות כמו סין, רוסיה ואיראן. אך שיתוף פעולה כזה צריך להתקיים תחת מגבלות ברורות. כלומר - השאלה לא היתה אם לעבוד עם הממשלה, אלא באילו תנאים.
נקודת השבר ביחסים
נקודת המפנה הגיעה בתחילת ינואר האחרון. שר ההגנה האמריקאי, פיט הגסת', פרסם מזכר שהבהיר כי הבינה המלאכותית תהפוך לתשתית מרכזית בלחימה העתידית. המסר היה ברור: אם ארה"ב רוצה להישאר תחרותית מול יריבותיה, עליה לשלב AI בכל שכבות המערכת הצבאית, החל מניתוח מידע ועד מערכות נשק אוטונומיות.
בעקבות ההצהרה החלו מגעים לחוזים חדשים בין הפנטגון לחברות הטכנולוגיה, ואז גם הופיעו חילוקי הדעות. לפי הדיווחים, אנתרופיק ביקשה לעגן בחוזה שני קווים אדומים: שהטכנולוגיה שלה לא תשמש למעקב המוני אחרי אזרחים אמריקאים, ושלא תשמש לנשק אוטונומי קטלני ללא פיקוח אנושי.
מבחינת החברה, לא מדובר היה רק בשאלת תדמית. היא חששה גם מהסיכון הטכנולוגי עצמו. מודלי בינה מלאכותית עדיין טועים בשיעור מסוים. טעות של אחוז או שניים בסיכום מסמך היא לא דרמטית, אבל טעות דומה בבחירת יעד לתקיפה עלולה להיות קטלנית. בנוסף, החברה חששה מהשלכות ציבוריות ומשפטיות במקרה שבו המודל שלה יהיה קשור לפגיעה שגויה.

בפנטגון ראו זאת אחרת. בכירי מערכת הביטחון האמריקאית סברו שחברה פרטית אינה יכולה להכתיב לצבא כיצד להשתמש בטכנולוגיה. מבחינתם, שאלת הכשירות והחוקיות של מערכות נשק היא עניין למדינה ולמערכת הביטחון, לא לחברת טכנולוגיה מעמק הסיליקון.
האולטימטום והמשבר
המתח החריף לאחר פרסומים שלפיהם מודל קלוד של אנתרופיק היה מעורב, או לפחות נקשר, במבצע מודיעיני הקשור לעצירת נשיא ונצואלה ניקולס מדורו.
המגעים הפכו טעונים. בשלב מסוים זומן מנכ"ל החברה, דריו אמודיי, לפגישה עם שר ההגנה. לפי הדיווחים, הוא קיבל אולטימטום להגיע לפשרה עד יום שישי בשעה חמש אחר הצהריים. כאשר הדדליין חלף ולא הושגה פשרה, הגיעה ההסלמה. אנתרופיק הוגדרה כסיכון בשרשרת האספקה, צעד שמקשה לספקים לעבוד איתה, ונשיא ארה"ב דונלד טראמפ אף תקף אותה בפומבי וכינה אותה "חברה ווקית" (Woke). החברה הגיבה בתביעה נגד הממשל, בטענה שההחלטה להחרים אותה אינה חוקית. ועלולה לגרום לה לנזק של עד 5 מיליארד דולר בהכנסות אבודות.
OpenAI נכנסת לתמונה
ברגע שאנתרופיק יצאה מהמסלול, OpenAI נכנסה אליו. לפי הדיווחים, סם אלטמן ניהל במקביל מגעים עם הפנטגון והצליח להגיע להסכם משלו. גם OpenAI הציגה קווים אדומים בנושאי מעקב פנימי ונשק אוטונומי, אך בחרה בגישה אחרת: במקום לכתוב את המגבלות בחוזה, היא טענה שניתן להטמיע אותן ישירות בקוד של המערכת.
מבחינת הפנטגון, לעומת זאת, הפתרון של OpenAI נוח יותר, משום שהוא משאיר את השליטה בידי המדינה. אך גם OpenAI לא יצאה מהפרשה ללא מחיר. בעקבות החוזה לפחות שני עובדים בכירים עזבו. אחד מהם אף הצטרף לאנתרופיק.
הפרשה גם חיזקה את תדמיתה של אנתרופיק בקרב קהילת המפתחים, כאשר הצ'אטבוט קלוד זינק לראש רשימת ההורדות בחנות האפליקציות של אפל, ובסן פרנסיסקו הופיעו שלטי תמיכה בחברה.