הפנטגון וענקיות ה- AI חוברים להקמת "כוח לוחם מבוסס בינה מלאכותית"

משרד המלחמה האמריקאי (הפנטגון) הכריז על שורה של הסכמים חדשים עם ענקיות ה- AI, ביניהן OpenAI, גוגל, מיקרוסופט, אנבידיה ואמזון, שיובילו להטמעת מודלי שפה גדולים (LLMs) ישירות בתוך הרשתות המסווגות של המשרד. המטרה ? להפוך את ארצות הברית ל- "כוח לוחם מבוסס AI", תוך שאיפה להשגת עליונות בקבלת החלטות בכל זירות הלחימה.

הפנטגון רוצה החלטות מהירות

ההסכמים החדשים מאפשרים לצבא ארה"ב להשתמש ביכולות המתקדמות ביותר שהמודלים מציעים למגזר הפרטי תחת מעטפת אבטחה מחמירה. פלטפורמה ייעודית בשם GenAi.mil, עם מעל 1.3 מיליון אנשי צוות, תאפשר לחיילים ועובדים במשרד להשתמש ב- AI למשימות יומיומיות, אך תחת פיקוח צבאי.

 

לפי הפנטגון, השימוש במערכת הוביל לקיצור תהליכים משמעותי.משימות שדרשו בעבר חודשים של ניתוח נתונים מתבצעות כעת תוך ימים ספורים. המודלים משמשים לניתוח דפוסי מידע מורכבים, זיהוי איומים וייעול שרשראות אספקה בתנאי שטח משתנים.

בניגוד לשימוש אזרחי, הטמעת המודלים ברשתות מסווגות דורשת התאמות ייחודיות. גוגל, למשל, פועלת להרצת שבבי AI מותאמים אישית בתוך מתקנים מסווגים של הפנטגון. מהלך שנועד להבטיח שמידע רגיש לא ידלוף לרשתות ציבוריות.

המטרה של הפנטגון היא לייצר "עליונות מידע" שתאפשר למפקדים בשטח לקבל החלטות מושכלות ומהירות יותר מהאויב, תוך צמצום חוסר הוודאות והבלבול שיש בשטח המאפיינים זירות לחימה מודרניות.

הדילמה המוסרית והחרם על Anthropic

לצד ההתלהבות, המהלך מעורר שאלות אתיות קשות בנוגע למתיחות שיש בין הממשל למספר חברות בתעשייה. חברת אנת'רופיק (Anthropic) למשל, הידועה בגישתה הממוקדת בפרטיות, מצאה את עצמה מחוץ להסכמים לאחר שסירבה לדרישת הפנטגון להסיר חלק ממנגנוני ההגנה של המודל שלה.

החברה הביעה חשש שהכלים שלה ישמשו למעקב המוני או ליצירת כלי נשק אוטונומיים ללא פיקוח אדם. סירוב זה הוביל את הממשל לסמן את החברה כ- "סיכון לשרשרת האספקה" ולהרחיקה מחוזים פדרליים, מה שממחיש את הלחץ הכבד המופעל על חברות הטכנולוגיה ליישר קו עם הצרכים הביטחוניים.

החששות שיש לאנת'רופיק מפני שילוב AI במערכות לחימה אינם תיאורטיים. בסימולציות של “משחקי מלחמה” שבהן שולבו מודלי AI היה ניתן לראות כי בעימותים ישירים, המערכות נטו להסלים במהירות ולעיתים אף בחרו באופציות קיצוניות כמו שימוש בנשק גרעיני.

בעוד הפנטגון מדגיש כי תמיד יהיה "אדם במעגל" שיקבל את ההחלטה הסופית, מומחים בתחום מזהירים מפני "הטיית אוטומציה". מצב שבו מפקדים נוטים לסמוך על המלצות ה- AI ולא לערער עליהן, בגלל כמות המידע שהוא מספק תוך זמן קצר.

אולי יעניין אותך גם

 
דילוג לתוכן