
هوش مصنوعي ديگر صرفاً يك ابزار فناورانه براي بهبود بهره وري اقتصادي يا توسعه خدمات ديجيتال نيست، بلكه به يك مؤلفه بنيادين و استراتژيك در معادلات امنيت ملي ايالات متحده بدل شده است.
در چنين شرايطي، جهان با ورود به فاز دوم توسعه هوش مصنوعي نظامي، شاهد تحولي عميق در الگوهاي بهره برداري از اين فناوري در محيط هاي عملياتي است؛ تحولي كه شامل به كارگيري مدل هاي زباني مولد نظير ChatGPT براي تحليل اطلاعات، ارزيابي تهديدات و حتي مشاركت در تصميم سازي هاي نظامي مي شود.
به عقيده كارشناسان، اين گذار، صرفاً جنبه تكنولوژيك ندارد بلكه بازتابي از پيوندهاي نهادي و تاريخي ميان صنايع فناوري پيشرفته در سيليكون ولي و ساختار نظامي-امنيتي ايالات متحده به شمار مي رود. ريشه اين پيوند به دوران جنگ سرد بازمي گردد و اكنون خود را در قالب همكاري هاي گسترده، قراردادهاي تحقيقاتي و به كارگيري مدل هاي پيشرفته در زنجيره تصميم گيري نظامي، نمايان كرده است. مهر در اين نوشتار كوتاه، به بررسي ابعاد مختلف استفاده از هوش مصنوعي در ساختار نظامي آمريكا، فرصت ها و تهديدهاي امنيتي ناشي از آن و همچنين بسترهاي نهادي و تاريخي اين رابطه فناورانه-نظامي مي پردازد.
گذار از فاز نخست به فاز دوم هوش مصنوعي نظامي
فاز نخست بهره گيري از هوش مصنوعي در ساختار نظامي ايالات متحده با پروژه هايي چون ميوِن (Project Maven) در سال 2017 كليد خورد. اين پروژه با هدف استفاده از بينايي ماشين براي تحليل خودكار تصاوير پهپادي طراحي شد؛ تحولي كه به صورت خاص براي شناسايي و طبقه بندي اهداف در ميادين نبرد و كاهش زمان واكنش عملياتي به كار گرفته شد. در اين فاز، تمركز بر سامانه هاي تشخيص الگو، تشخيص چهره و دسته بندي اشيا در تصاوير هوايي بود.
اين در حالي است كه طي سال هاي اخير و با شتاب گيري پيشرفت در حوزه مدل هاي زباني مولد، فاز دوم اين تحول فناورانه آغاز شد؛ فازي كه در آن هوش مصنوعي نه فقط براي پردازش داده هاي تصويري، بلكه براي تحليل متون، برآورد تهديدات، توليد سناريوهاي عملياتي و حتي پيشنهاد گزينه هاي تصميم گيري نظامي استفاده مي شود. براي مثال، در يكي از مانور نظامي اخير آمريكا در منطقه پاسيفيك، دو نيروي تفنگدار دريايي ايالات متحده براي نخستين بار از چت باتي شبيه به ChatGPT جهت تحليل اطلاعات جاسوسي و تشخيص علائم هشدار زودهنگام استفاده كردند. اين ابزار توانست با پردازش صدها منبع اطلاعاتي، روندهاي مشكوك را استخراج كرده و توصيه هايي براي اقدامات بعدي ارائه دهد.
اين تغيير، صرفاً به معناي بهبود بهره وري اطلاعاتي نيست، بلكه نقطه عطفي در تحول الگوريتم هاي تصميم سازي نظامي محسوب مي شود؛ الگويي كه در آن مدل هاي زباني به عنوان تحليل گر، مترجم داده و حتي مشاور عمليات در كنار فرماندهان عمل مي كنند. در اين چارچوب، مرز ميان ابزارهاي پشتيبان اطلاعاتي و سامانه هاي فعال در فرآيند تصميم گيري نظامي، به شكل فزاينده اي در حال از بين رفتن است.
با عنايت به تحولات فناورانه اخير، در مسير توسعه اين فناوري ها، سه پرسش اساسي مطرح مي شود:
1. حدود مداخله انسان در فرآيند تصميم گيري چيست؟
اصطلاح رايج انسان در حلقه (human in the loop) به عنوان راهكاري براي جلوگيري از اشتباهات خطرناك سيستم هاي هوش مصنوعي مطرح مي شود، اما به گفته هايدي خَلاف، كارشناس ارشد مؤسسه مطالعاتي AI Now، وقتي مدل ها از هزاران داده استفاده مي كنند، راستي آزمايي انساني عملاً غيرممكن مي شود.
2. آيا هوش مصنوعي باعث شفاف سازي يا ابهام در طبقه بندي اطلاعات مي شود؟
مدل هاي زباني مولد مي توانند با تركيب داده هاي غيرمحرمانه، به اطلاعاتي دست يابند كه ماهيتاً محرمانه هستند؛ پديده اي كه به آن طبقه بندي بر پايه تجميع (classification by compilation) مي گويند. شركت هايي نظير Palantir در تلاش هستند كه با كمك هوش مصنوعي، تشخيص سطح محرمانگي اسناد را خودكار كنند، اما هنوز استانداردهاي مشخصي براي اين كار تدوين نشده است.
3. هوش مصنوعي تا كجاي زنجيره تصميم گيري نظامي نفوذ مي كند؟
مدل هاي كنوني نه تنها داده پردازي مي كنند، بلكه به سمت پيشنهاد عملياتي و تعيين اهداف نظامي سوق يافته اند. طبق گزارش مركز CSET دانشگاه جورج تاون، فرماندهان نظامي به شكل فزاينده اي به اين مدل ها براي تصميم سازي در سطوح عملياتي اعتماد دارند. اين در حالي است كه حتي در يادداشت امنيت ملي دولت بايدن نيز هشدارهايي در مورد نياز به كنترل بر تصميم گيري هاي حياتي مبتني بر هوش مصنوعي ذكر شده بود؛ هرچند مسير فعلي دولت ترامپ متمايل به كاهش نظارت و افزايش سرعت رقابت است.
سيليكون ولي؛ اكوسيستمي ساخته دست پنتاگون
علي رغم تصور عمومي، پيوند ميان سيليكون ولي و پنتاگون يك پديده نوظهور يا ناشي از ضرورت هاي ژئوپليتيك قرن بيست ويكم نيست، بلكه ريشه هاي عميقي در تاريخ جنگ سرد دارد. در آن دوران، ايالات متحده به دنبال برتري فناورانه بر رقيب قدرتمند خود، شوروي، سرمايه گذاري گسترده اي بر روي پژوهش هاي علمي، پروژه هاي مهندسي و توسعه صنايع الكترونيكي و محاسباتي انجام داد. اين سرمايه گذاري ها عمدتاً از سوي نهادهايي نظير وزارت دفاع (DOD) و آژانس پروژه هاي پژوهشي پيشرفته دفاعي (DARPA) صورت گرفت كه هدف آن ها نه فقط پيشرفت علمي، بلكه تسلط استراتژيك فناورانه بود.
شركت هايي نظير Fairchild Semiconductor و Varian Associates، كه از نخستين بنيان گذاران اكوسيستم فناورانه سيليكون ولي محسوب مي شوند، با اتكا به قراردادهاي نظامي ارتش آمريكا توانستند رشد كنند. همچنين پروژه ARPANET كه بعدتر به ظهور اينترنت منجر شد، يك پروژه تماماً نظامي بود كه براي افزايش امنيت و قابليت اطمينان ارتباطات در شرايط بحران طراحي شد. علاوه بر اين، دستيار صوتي Siri نيز كه امروز در تلفن هاي هوشمند به كار مي رود، ريشه در پروژه هاي هوش مصنوعي DARPA دارد. دانشگاه استنفورد و ديگر نهادهاي علمي منطقه نيز با تشويق دولت فدرال، پژوهشگران خود را به مشاركت در پروژه هاي نظامي و امنيتي ترغيب كردند و اين سياست باعث شد تا مرز ميان پژوهش دانشگاهي و نيازهاي دفاعي به مرور كمرنگ شود.
در اين فرآيند، الگويي شكل گرفت كه مورخان آن را نقشه راه سيليكون ولي مي نامند؛ ائتلافي ميان دولت، دانشگاه و صنعت كه محور آن منافع امنيتي و نظامي ايالات متحده بود. اين الگو نه تنها باعث شكل گيري شركت هايي نظير اينتل و گوگل شد، بلكه فرهنگ فناورانه سيليكون ولي را نيز بر مبناي مأموريت هاي ملي و امنيتي بازتعريف كرد. به عبارت ديگر، توسعه صنعت فناوري اطلاعات در آمريكا همپا با الزامات نظامي و دفاعي بوده و همچنان اين پيوند، هرچند در قالب ها و زبان هايي متفاوت، پابرجاست.
تعامل پنتاگون و سيليكون ولي؛ رابطه اي پرتنش اما پابرجا
در سال هاي اخير، اعتراضات گسترده اي از سوي كاركنان شركت هاي فناوري عليه همكاري با نهادهاي نظامي ايالات متحده شكل گرفته است. براي نمونه، در سال 2018، كاركنان گوگل در واكنش به مشاركت اين شركت در پروژه ميوِن كه هدف آن بهره برداري از بينايي ماشين براي تحليل تصاوير پهپادي در عمليات نظامي بود، با ارسال نامه هاي سرگشاده و برگزاري تجمعات اعتراضي، خواستار قطع همكاري با پنتاگون شدند. در نتيجه اين فشارها، گوگل اعلام كرد قرارداد خود را تمديد نخواهد كرد. به همين ترتيب، پروژه Nimbus كه هدف آن ارائه زيرساخت هاي ابري و ظرفيت هاي يادگيري ماشين به رژيم صهيونيستي بود نيز با اعتراض كاركنان آمازون و گوگل مواجه شد.
با اين حال، اين اعتراضات هرگز نتوانستند روند كلان همكاري ميان صنعت فناوري و نهادهاي دفاعي آمريكا را متوقف كنند. پروژه هاي مشابه از طريق پيمانكاران فرعي و سازوكارهاي واسطه گري ادامه يافتند و بسياري از شركت ها ترجيح دادند اين همكاري ها را از ديد عمومي دور نگه دارند.
در همين حال، واحد نوآوري دفاعي آمريكا يا Defense Innovation Unit كه در سال 2015 با هدف ايجاد تعامل مستقيم ميان پنتاگون و استارتاپ هاي فناوري در سيليكون ولي تأسيس شد، به تدريج جايگاه خود را تثبيت كرده و اكنون با بودجه اي رو به افزايش، در حال گسترش به ايالت ها و مراكز فناوري ديگر در سراسر اين كشور است. واحد مذكور به نوعي نقطه اتصال رسمي و ساختاريافته اي ميان نهاد نظامي و اكوسيستم نوآوري تبديل شده كه حضور آن بيانگر عزم وزارت دفاع براي نهادينه سازي همكاري با صنعت فناوري است.
همزمان، نخبگان فناوري با گفتمان هايي چون ميهن دوستي فناورانه تلاش مي كنند روايت اخلاقي تازه اي از اين همكاري ها ارائه دهند. افرادي چون پالمر لاكي، بنيان گذار Anduril و الكس كارپ، مديرعامل Palantir، آشكارا از تعهد صنعت فناوري به غرب و لزوم پشتيباني از سياست هاي امنيت ملي آمريكا سخن مي گويند. كارپ در مجمع جهاني اقتصاد داووس 2023 تصريح كرد: اگر با ما نيستيد، اينجا جاي شما نيست. اين گفتمان مبين آن است كه همكاري فناورانه-نظامي ديگر صرفاً يك تصميم اقتصادي نيست، بلكه به تدريج به بخشي از هويت استراتژيك شركت هاي فناوري آمريكايي تبديل مي شود.
اجراي پروژه هاي همكاري متعدد ميان وزارت دفاع آمريكا و شركت هاي فناوري، نظير Replicator، نشان مي دهد كه هدف نه تنها استفاده از نوآوري هاي تجاري در جنگ افزارهاي ارزان قيمت، بلكه گسترش دامنه مصرف نظامي فناوري هاي سيليكون ولي است. به نقل از پژوهشگران مؤسسه كوئينسي، اين فرايند نيازمند يك بازنگري اساسي در خود صنعت فناوري است؛ چرا كه مرز ميان ابزارهاي مصرفي و تسليحات نظامي بيش از پيش در حال از بين رفتن است.
جمع بندي
در نهايت به نظر مي رسد كه گسترش استفاده از هوش مصنوعي مولد در ارتش آمريكا صرفاً يك نوآوري فناورانه در سطح ابزار يا نرم افزار نيست، بلكه نشانه اي از يك تحول نهادي عميق در ساختارهاي تصميم گيري، نظارت و مأموريت هاي امنيتي ايالات متحده است. اين فناوري نه تنها به ارتقا كارايي عملياتي در ميادين جنگي كمك مي كند، بلكه در حال تغيير دادن منطق سنتي تصميم سازي نظامي، طبقه بندي اطلاعات و حتي تعريف مفاهيم كليدي همچون تهديد، هدف و اقدام متقابل است. كارشناسان نظامي آمريكايي معتقدند كه در چنين فضايي، ديگر نمي توان به مدل هاي مرسوم نظارت انساني يا كنترل متمركز اتكا كرد؛ زيرا سرعت و مقياس عملكرد مدل هاي زباني مولد از توان تحليل و مداخله انساني پيشي گرفته است.
در عين حال، رابطه تاريخي و ساختاري سيليكون ولي با پنتاگون اكنون وارد مرحله اي نوين از هم زيستي فناورانه-نظامي شده است. اين رابطه، كه زماني بر پايه قراردادهاي تحقيقاتي دوران جنگ سرد شكل گرفت، امروز در قالب ادغام كامل فناوري هاي نوظهور در سامانه هاي تسليحاتي، الگوريتم هاي تصميم سازي و پروژه هاي راهبردي ادامه دارد. چنين روندي به معناي بازتعريف جايگاه صنعت فناوري در سياست خارجي و امنيتي آمريكاست.
با اين حال، بسياري از پرسش هاي حياتي در اين زمينه همچنان بي پاسخ مانده اند. آيا مي توان مسئوليت حقوقي تصميمات اتخاذشده بر پايه خروجي هاي هوش مصنوعي را تعريف كرد؟ آيا مرز ميان طبقه بندي اطلاعات و شفافيت عمومي در عصر تجميع داده و تحليل ماشيني قابل دفاع است؟ و مهم تر از همه، آيا رقابت فناورانه ميان قدرت هاي جهاني، توجيه گر تعليق اصول اخلاقي در بهره برداري نظامي از هوش مصنوعي خواهد بود؟