به گزارش تبریزمن به نقل از خبرگزاری مهر؛ در چنین شرایطی، جهان با ورود به فاز دوم توسعه هوش مصنوعی نظامی، شاهد تحولی عمیق در الگوهای بهرهبرداری از این فناوری در محیطهای عملیاتی است؛ تحولی که شامل بهکارگیری مدلهای زبانی مولد نظیر «ChatGPT» برای تحلیل اطلاعات، ارزیابی تهدیدات و حتی مشارکت در تصمیمسازیهای نظامی میشود.
به عقیده کارشناسان، این گذار، صرفاً جنبه تکنولوژیک ندارد بلکه بازتابی از پیوندهای نهادی و تاریخی میان صنایع فناوری پیشرفته در سیلیکونولی و ساختار نظامی-امنیتی ایالات متحده به شمار میرود. ریشه این پیوند به دوران جنگ سرد بازمیگردد و اکنون خود را در قالب همکاریهای گسترده، قراردادهای تحقیقاتی و بهکارگیری مدلهای پیشرفته در زنجیره تصمیمگیری نظامی، نمایان کرده است. مهر در این نوشتار کوتاه، به بررسی ابعاد مختلف استفاده از هوش مصنوعی در ساختار نظامی آمریکا، فرصتها و تهدیدهای امنیتی ناشی از آن و همچنین بسترهای نهادی و تاریخی این رابطه فناورانه-نظامی میپردازد.
گذار از فاز نخست به فاز دوم هوش مصنوعی نظامی
فاز نخست بهرهگیری از هوش مصنوعی در ساختار نظامی ایالات متحده با پروژههایی چون «میوِن» (Project Maven) در سال ۲۰۱۷ کلید خورد. این پروژه با هدف استفاده از بینایی ماشین برای تحلیل خودکار تصاویر پهپادی طراحی شد؛ تحولی که به صورت خاص برای شناسایی و طبقهبندی اهداف در میادین نبرد و کاهش زمان واکنش عملیاتی بهکار گرفته شد. در این فاز، تمرکز بر سامانههای تشخیص الگو، تشخیص چهره و دستهبندی اشیا در تصاویر هوایی بود.
این در حالی است که طی سالهای اخیر و با شتابگیری پیشرفت در حوزه مدلهای زبانی مولد، فاز دوم این تحول فناورانه آغاز شد؛ فازی که در آن هوش مصنوعی نهفقط برای پردازش دادههای تصویری، بلکه برای تحلیل متون، برآورد تهدیدات، تولید سناریوهای عملیاتی و حتی پیشنهاد گزینههای تصمیمگیری نظامی استفاده میشود. برای مثال، در یکی از مانور نظامی اخیر آمریکا در منطقه پاسیفیک، دو نیروی تفنگدار دریایی ایالات متحده برای نخستینبار از چتباتی شبیه به «ChatGPT» جهت تحلیل اطلاعات جاسوسی و تشخیص علائم هشدار زودهنگام استفاده کردند. این ابزار توانست با پردازش صدها منبع اطلاعاتی، روندهای مشکوک را استخراج کرده و توصیههایی برای اقدامات بعدی ارائه دهد.
این تغییر، صرفاً به معنای بهبود بهرهوری اطلاعاتی نیست، بلکه نقطه عطفی در تحول الگوریتمهای تصمیمسازی نظامی محسوب میشود؛ الگویی که در آن مدلهای زبانی بهعنوان تحلیلگر، مترجم داده و حتی مشاور عملیات در کنار فرماندهان عمل میکنند. در این چارچوب، مرز میان ابزارهای پشتیبان اطلاعاتی و سامانههای فعال در فرآیند تصمیمگیری نظامی، بهشکل فزایندهای در حال از بین رفتن است.
با عنایت به تحولات فناورانه اخیر، در مسیر توسعه این فناوریها، سه پرسش اساسی مطرح میشود:
۱. حدود مداخله انسان در فرآیند تصمیمگیری چیست؟
اصطلاح رایج «انسان در حلقه» (human in the loop) بهعنوان راهکاری برای جلوگیری از اشتباهات خطرناک سیستمهای هوش مصنوعی مطرح میشود، اما بهگفته هایدی خَلاف، کارشناس ارشد مؤسسه مطالعاتی «AI Now»، وقتی مدلها از هزاران داده استفاده میکنند، راستیآزمایی انسانی عملاً غیرممکن میشود.
۲. آیا هوش مصنوعی باعث شفافسازی یا ابهام در طبقهبندی اطلاعات میشود؟ مدلهای زبانی مولد میتوانند با ترکیب دادههای غیرمحرمانه، به اطلاعاتی دست یابند که ماهیتاً محرمانه هستند؛ پدیدهای که به آن «طبقهبندی بر پایه تجمیع» (classification by compilation) میگویند. شرکتهایی نظیر «Palantir» در تلاش هستند که با کمک هوش مصنوعی، تشخیص سطح محرمانگی اسناد را خودکار کنند، اما هنوز استانداردهای مشخصی برای این کار تدوین نشده است.
۳. هوش مصنوعی تا کجای زنجیره تصمیمگیری نظامی نفوذ میکند؟
مدلهای کنونی نهتنها دادهپردازی میکنند، بلکه بهسمت پیشنهاد عملیاتی و تعیین اهداف نظامی سوق یافتهاند. طبق گزارش مرکز «CSET» دانشگاه جورجتاون، فرماندهان نظامی به شکل فزایندهای به این مدلها برای تصمیمسازی در سطوح عملیاتی اعتماد دارند. این در حالی است که حتی در یادداشت امنیت ملی دولت بایدن نیز هشدارهایی در مورد نیاز به کنترل بر تصمیمگیریهای حیاتی مبتنی بر هوش مصنوعی ذکر شده بود؛ هرچند مسیر فعلی دولت ترامپ متمایل به کاهش نظارت و افزایش سرعت رقابت است.
سیلیکونولی؛ اکوسیستمی ساخته دست پنتاگون
علیرغم تصور عمومی، پیوند میان سیلیکونولی و پنتاگون یک پدیده نوظهور یا ناشی از ضرورتهای ژئوپلیتیک قرن بیستویکم نیست، بلکه ریشههای عمیقی در تاریخ جنگ سرد دارد. در آن دوران، ایالات متحده بهدنبال برتری فناورانه بر رقیب قدرتمند خود، شوروی، سرمایهگذاری گستردهای بر روی پژوهشهای علمی، پروژههای مهندسی و توسعه صنایع الکترونیکی و محاسباتی انجام داد. این سرمایهگذاریها عمدتاً از سوی نهادهایی نظیر وزارت دفاع (DOD) و آژانس پروژههای پژوهشی پیشرفته دفاعی (DARPA) صورت گرفت که هدف آنها نهفقط پیشرفت علمی، بلکه تسلط استراتژیک فناورانه بود.
شرکتهایی نظیر «Fairchild Semiconductor» و «Varian Associates»، که از نخستین بنیانگذاران اکوسیستم فناورانه سیلیکونولی محسوب میشوند، با اتکا به قراردادهای نظامی ارتش آمریکا توانستند رشد کنند. همچنین پروژه «ARPANET» که بعدتر به ظهور اینترنت منجر شد، یک پروژه تماماً نظامی بود که برای افزایش امنیت و قابلیت اطمینان ارتباطات در شرایط بحران طراحی شد. علاوه بر این، دستیار صوتی «Siri» نیز که امروز در تلفنهای هوشمند بهکار میرود، ریشه در پروژههای هوش مصنوعی «DARPA» دارد. دانشگاه استنفورد و دیگر نهادهای علمی منطقه نیز با تشویق دولت فدرال، پژوهشگران خود را به مشارکت در پروژههای نظامی و امنیتی ترغیب کردند و این سیاست باعث شد تا مرز میان پژوهش دانشگاهی و نیازهای دفاعی بهمرور کمرنگ شود.
در این فرآیند، الگویی شکل گرفت که مورخان آن را «نقشه راه سیلیکونولی» مینامند؛ ائتلافی میان دولت، دانشگاه و صنعت که محور آن منافع امنیتی و نظامی ایالات متحده بود. این الگو نهتنها باعث شکلگیری شرکتهایی نظیر اینتل و گوگل شد، بلکه فرهنگ فناورانه سیلیکونولی را نیز بر مبنای مأموریتهای ملی و امنیتی بازتعریف کرد. بهعبارت دیگر، توسعه صنعت فناوری اطلاعات در آمریکا همپا با الزامات نظامی و دفاعی بوده و همچنان این پیوند، هرچند در قالبها و زبانهایی متفاوت، پابرجاست.
تعامل پنتاگون و سیلیکون ولی؛ رابطهای پرتنش اما پابرجا
در سالهای اخیر، اعتراضات گستردهای از سوی کارکنان شرکتهای فناوری علیه همکاری با نهادهای نظامی ایالات متحده شکل گرفته است. برای نمونه، در سال ۲۰۱۸، کارکنان گوگل در واکنش به مشارکت این شرکت در پروژه میوِن که هدف آن بهرهبرداری از بینایی ماشین برای تحلیل تصاویر پهپادی در عملیات نظامی بود، با ارسال نامههای سرگشاده و برگزاری تجمعات اعتراضی، خواستار قطع همکاری با پنتاگون شدند. در نتیجه این فشارها، گوگل اعلام کرد قرارداد خود را تمدید نخواهد کرد. بههمین ترتیب، پروژه «Nimbus» که هدف آن ارائه زیرساختهای ابری و ظرفیتهای یادگیری ماشین به رژیم صهیونیستی بود نیز با اعتراض کارکنان آمازون و گوگل مواجه شد.
با این حال، این اعتراضات هرگز نتوانستند روند کلان همکاری میان صنعت فناوری و نهادهای دفاعی آمریکا را متوقف کنند. پروژههای مشابه از طریق پیمانکاران فرعی و سازوکارهای واسطهگری ادامه یافتند و بسیاری از شرکتها ترجیح دادند این همکاریها را از دید عمومی دور نگه دارند.
در همین حال، واحد نوآوری دفاعی آمریکا یا «Defense Innovation Unit» که در سال ۲۰۱۵ با هدف ایجاد تعامل مستقیم میان پنتاگون و استارتاپهای فناوری در سیلیکونولی تأسیس شد، به تدریج جایگاه خود را تثبیت کرده و اکنون با بودجهای رو به افزایش، در حال گسترش به ایالتها و مراکز فناوری دیگر در سراسر این کشور است. واحد مذکور بهنوعی نقطه اتصال رسمی و ساختاریافتهای میان نهاد نظامی و اکوسیستم نوآوری تبدیل شده که حضور آن بیانگر عزم وزارت دفاع برای نهادینهسازی همکاری با صنعت فناوری است.
همزمان، نخبگان فناوری با گفتمانهایی چون «میهندوستی فناورانه» تلاش میکنند روایت اخلاقی تازهای از این همکاریها ارائه دهند. افرادی چون پالمر لاکی، بنیانگذار «Anduril» و الکس کارپ، مدیرعامل «Palantir»، آشکارا از تعهد صنعت فناوری به غرب و لزوم پشتیبانی از سیاستهای امنیت ملی آمریکا سخن میگویند. کارپ در مجمع جهانی اقتصاد داووس ۲۰۲۳ تصریح کرد: «اگر با ما نیستید، اینجا جای شما نیست.» این گفتمان مبین آن است که همکاری فناورانه-نظامی دیگر صرفاً یک تصمیم اقتصادی نیست، بلکه بهتدریج به بخشی از هویت استراتژیک شرکتهای فناوری آمریکایی تبدیل میشود.
اجرای پروژههای همکاری متعدد میان وزارت دفاع آمریکا و شرکتهای فناوری، نظیر «Replicator»، نشان میدهد که هدف نهتنها استفاده از نوآوریهای تجاری در جنگافزارهای ارزانقیمت، بلکه گسترش دامنه مصرف نظامی فناوریهای سیلیکونولی است. بهنقل از پژوهشگران مؤسسه کوئینسی، این فرایند نیازمند یک بازنگری اساسی در خود صنعت فناوری است؛ چرا که مرز میان ابزارهای مصرفی و تسلیحات نظامی بیش از پیش در حال از بین رفتن است.
جمعبندی
در نهایت به نظر میرسد که گسترش استفاده از هوش مصنوعی مولد در ارتش آمریکا صرفاً یک نوآوری فناورانه در سطح ابزار یا نرمافزار نیست، بلکه نشانهای از یک تحول نهادی عمیق در ساختارهای تصمیمگیری، نظارت و مأموریتهای امنیتی ایالات متحده است. این فناوری نهتنها به ارتقا کارایی عملیاتی در میادین جنگی کمک میکند، بلکه در حال تغییر دادن منطق سنتی تصمیمسازی نظامی، طبقهبندی اطلاعات و حتی تعریف مفاهیم کلیدی همچون تهدید، هدف و اقدام متقابل است. کارشناسان نظامی آمریکایی معتقدند که در چنین فضایی، دیگر نمیتوان به مدلهای مرسوم «نظارت انسانی» یا کنترل متمرکز اتکا کرد؛ زیرا سرعت و مقیاس عملکرد مدلهای زبانی مولد از توان تحلیل و مداخله انسانی پیشی گرفته است.
در عین حال، رابطه تاریخی و ساختاری سیلیکونولی با پنتاگون اکنون وارد مرحلهای نوین از همزیستی فناورانه-نظامی شده است. این رابطه، که زمانی بر پایه قراردادهای تحقیقاتی دوران جنگ سرد شکل گرفت، امروز در قالب ادغام کامل فناوریهای نوظهور در سامانههای تسلیحاتی، الگوریتمهای تصمیمسازی و پروژههای راهبردی ادامه دارد. چنین روندی بهمعنای بازتعریف جایگاه صنعت فناوری در سیاست خارجی و امنیتی آمریکاست.
با این حال، بسیاری از پرسشهای حیاتی در این زمینه همچنان بیپاسخ ماندهاند. آیا میتوان مسئولیت حقوقی تصمیمات اتخاذشده بر پایه خروجیهای هوش مصنوعی را تعریف کرد؟ آیا مرز میان طبقهبندی اطلاعات و شفافیت عمومی در عصر تجمیع داده و تحلیل ماشینی قابل دفاع است؟ و مهمتر از همه، آیا رقابت فناورانه میان قدرتهای جهانی، توجیهگر تعلیق اصول اخلاقی در بهرهبرداری نظامی از هوش مصنوعی خواهد بود؟