בואו נדבר רגע על המהפכה שקורית לנו מתחת לאף. אם חשבתם שבינה מלאכותית זה רק לכתיבת מיילים או יצירת תמונות של חתולים בחלל, כדאי שתחשבו שוב. בשבועות האחרונים מתפתח מאבק מרתק בין משרד ההגנה האמריקאי (הפנטגון) לבין ענקיות ה AI כמו OpenAI ואנתרופיק.
הפנטגון לא מסתפק יותר בשימוש ב ChatGPT כדי לסכם ישיבות, הוא רוצה את הכלים האלה עמוק בתוך הרשתות הכי מסווגות שלו והשבוע דרש מ־OpenAI ומאנתרופיק לאפשר לו שימוש במודלי AI גם ברשתות אלו.
מה שבאמת מניע את המהלך הזה הוא לא רק הרצון להיות "חדשניים", אלא הצורך ההישרדותי להתמודד עם הצפת מידע מטורפת. תחשבו על מפקד בשטח שצריך לקבל החלטה בשבריר שנייה בזמן שזורמים אליו נתונים מאינספור מקורות – מצילומי לוויין ברזולוציה גבוהה ועד דיווחי מודיעין ואותות סייבר בזמן אמת. היכולת של בינה מלאכותית לקחת את הררי המידע האלו, למצוא בהם סדר ולהצליב מקורות במהירות שיא, נתפסת היום בפנטגון כיתרון שובר שוויון בשדה הקרב המודרני. אבל כאן בדיוק מסתתר המוקש: כשאנחנו עוברים מסיכום ישיבות אדמיניסטרטיביות לתכנון מבצעי בליבת המערכת, כל טעות קטנה או "הזיה" של המודל הופכת מאי נוחות קלה לסכנה ממשית לחיי אדם.
כשה AI עובר מהמשרד לשדה הקרב
עד היום, רוב העבודה של הצבא האמריקאי עם מודלי שפה נעשתה ב"רשתות פתוחות", אלו שמשמשות לניהול, תמיכה ולוגיסטיקה. אבל הפנטגון החליט שהגיע הזמן להעלות הילוך. הם רוצים להשתמש בבינה מלאכותית כדי לעבד כמויות אדירות של מידע מודיעיני, תצלומי לוויין ודיווחים מהשטח בזמן אמת. המטרה ברורה: לקבל החלטות מהירות יותר ומדויקות יותר במציאות שבה כל שנייה קובעת.
אבל כאן מתחילה הבעיה. המעבר לרשתות מסווגות הוא לא סתם עניין טכני. מדובר במערכות שבהן החלטות יכולות להשפיע על חיי אדם. וכאן נכנסת השאלה הגדולה – האם אנחנו יכולים לסמוך על מודל שעלול "להזות" או להמציא פרטים כשעל הפרק עומדים מהלכים צבאיים רגישים?
מי קובע את החוקים? ענקיות הטכנולוגיה או המדינה?
מבחינת OpenAI ואנתרופיק, הכלים שהן פיתחו מגיעים עם "חגורות בטיחות" מובנות. הן חסמו אפשרויות לשימוש בנשק, אלימות או פגיעה בזכויות אדם. זה חלק מה DNA של החברות האלה. אבל הפנטגון? הוא רואה במגבלות האלה סוג של "מעצור" שמפריע לו למצות את הפוטנציאל של הכלי.
במשרד ההגנה טוענים שכל עוד הם פועלים לפי החוק האמריקאי, חברה פרטית לא צריכה לקבוע להם גבולות נוספים. אנתרופיק, למשל, כבר הבהירה שהיא לא רוצה ש"קלוד" שלה ישמש להפעלת מערכות נשק אוטונומיות. זה יוצר מתח מעניין מאוד: מי באמת הריבון כאן? האם אלו המפתחים בעמק הסיליקון או הגנרלים בוושינגטון?
ההסכמים החדשים והעתיד שמעבר לפינה
השבוע כבר ראינו פריצת דרך קטנה: הסכם חדש בין OpenAI לפנטגון שמאפשר להשתמש ב ChatGPT ברשת ייעודית של משרד ההגנה. אמנם מדובר עדיין ברשת בלתי מסווגת, אבל חלק מהמגבלות הוסרו כדי להתאים לצרכים הצבאיים. זהו צעד ראשון בדרך לשילוב עמוק הרבה יותר.
הדיון הזה רחוק מלהסתיים. ככל שהבינה המלאכותית הופכת לרכיב אסטרטגי בתשתית הביטחונית של ארה"ב, אנחנו נראה עוד ועוד מאבקים כאלה על שליטה, אחריות ואתיקה. בסופו של דבר, כולנו רוצים לדעת שהמערכות הכי חזקות בעולם נמצאות בידיים הנכונות, אבל גם שהן פועלות תחת פיקוח ולא הופכות למשהו שאי אפשר לשלוט בו.
מה דעתכם? האם הייתם נותנים לבינה מלאכותית לקבל החלטות בשדה הקרב, או שהייתם משאירים את המגבלות של החברות הפרטיות במקומן? זה בהחלט חומר למחשבה.



