جنگ ایران و نخستین آزمون سربازی هوش مصنوعی
یکی از هشدارهای همیشگی آیندهنگران در زمینه هوش مصنوعی، استفاده از این فناوری انقلابی برای مقاصد نظامی بوده است؛ اینکه انسان در مهمترین تصمیم خود، یعنی تصمیم آگاهانه به سلب حق حیات دیگری، مسئولیت اخلاقی، عقلی و انتخاب را از خود سلب و به ماشین واگذار کند. آنها هشدار میدادند که شاید این روند کمکم و با توسعه ابزارهای هوش مصنوعی به جایی برسد که دستور، هدف یا به قول امروز پرامپتی نادقیق باعث شود ماشین دست به اقدام علیه یک کشور یا حتی بشریت بزند. اسکاینت، هوش مصنوعی معروف در مجموعه ترمیناتور، برای نابودی انسان قیام کرد؛ نمونهای از همین هراس که در آن ماشین، مأموریت دفاع و برقراری صلح را چنان تفسیر میکند که خود انسان را عامل تهدید میبیند.
اما تا آن روز چقدر فاصله داریم؟ آلوین تافلر در شوک آینده هشدار میداد که شتاب دگرگونیهای فناورانه گاه چنان بالاست که جوامع متوجه عبور از آستانههای تاریخی نمیشوند. شاید به همین دلیل است که ما گاهی بیآنکه کاملاً آگاه باشیم، وارد دورانی میشویم که زمانی از آن هراس داشتهایم. آیا سپیده عصر اسکاینت آغاز شده است؟ جنگ ایالات متحده و اسرائیل علیه ایران ممکن است یکی از نخستین نشانههای آغاز این عصر باشد.
سپیده دم جنگ هومص
جنگی که از ۲۸ فوریه ۲۰۲۶ با حملات آمریکا و اسرائیل به ایران آغاز شد، فقط یک رویارویی دیگر در خاورمیانه نبود. به گزارش رویترز، پنتاگون نام این عملیات را «Epic Fury» گذاشت و از همان ساعات اول، علاوه بر موشکهای تاماهاوک و حملات هوایی، از اختلالهای سایبری و فضایی برای کور و کند کردن شبکههای ارتباطی و دفاعی ایران استفاده شد. در ۲۴ ساعت نخست نیز بیش از هزار هدف مورد حمله قرار گرفتند. این همان نقطهای است که جنگ امروز را از بسیاری از جنگهای پیشین جدا میکند: دیگر فقط حجم آتش مهم نیست، بلکه سرعت پردازش داده، اولویتبندی هدف و تبدیل اطلاعات به کنش مرگبار تعیینکننده شده است.
اگر بخواهیم این دگرگونی را دقیقتر توصیف کنیم، باید از «خودِ سلاح» کمی فاصله بگیریم و به «زنجیره کشتن» نگاه کنیم؛ همان فرایند شناسایی، تأیید، انتخاب و حمله به هدف. آنچه امروز تغییر کرده، فشرده شدن این زنجیره است.
حضور Maven در زنجیره کشتن
پروژه Maven یکی از نخستین تلاشهای جدی پنتاگون برای وارد کردن هوش مصنوعی به قلب فرایندهای اطلاعاتی و عملیاتی جنگ بود. این برنامه در سال ۲۰۱۷ توسط وزارت دفاع ایالات متحده و در قالب نهادی موسوم به Algorithmic Warfare Cross-Functional Team آغاز شد. هدف اولیه آن نسبتاً محدود به نظر میرسید: استفاده از الگوریتمهای یادگیری ماشین برای تحلیل خودکار تصاویر و ویدئوهایی که از پهپادها و ماهوارههای نظامی به دست میآمد. در آن زمان فرماندهان آمریکایی با مشکلی روبهرو بودند که خود آن را «سیلاب داده» مینامیدند. پهپادهای شناسایی و ماهوارههای نظارتی هر روز هزاران ساعت تصویر تولید میکردند، اما تحلیل انسانی این حجم داده به قدری زمانبر بود که بسیاری از اطلاعات ارزشمند عملاً هرگز بررسی نمیشد. پروژه Maven قرار بود این گلوگاه را برطرف کند و به ماشینها بیاموزد چگونه در تصاویر، خودروها، ساختمانها، افراد یا فعالیتهای مشکوک را شناسایی و طبقهبندی کنند. (به گفته وزارت دفاع آمریکا، ۲۰۱۷)
در سالهای نخست، Maven بیشتر به عنوان یک سامانه کمکتحلیلگر معرفی میشد؛ الگوریتمها میتوانستند در تصاویر پهپادی اشیایی مانند خودروهای نظامی یا مواضع احتمالی دشمن را علامتگذاری کنند تا تحلیلگران انسانی سریعتر به نقاط مهم توجه کنند. اما به تدریج دامنه آن گستردهتر شد. آژانس اطلاعات مکانی–جغرافیایی آمریکا (NGA) میگوید این پروژه اکنون در «طیف وسیعی از گردشکارهای اطلاعاتی» ادغام شده و از یادگیری ماشین برای تشخیص، طبقهبندی و ردیابی اشیا در تصویر و ویدئو استفاده میکند؛ ابزاری که به گفته این آژانس میتواند مزیت تصمیمگیری را در «سرعت درگیری» حفظ کند، یعنی در همان زمانی که عملیات نظامی در حال وقوع است.
در این مرحله، Maven دیگر صرفاً یک ابزار تحلیل تصویر نبود، بلکه بخشی از تلاش بزرگتر ارتش آمریکا برای ایجاد آن چیزی شد که فرماندهان نظامی آن را «زنجیره کشتن سریعتر» مینامند؛ فرایندی که در آن دادههای اطلاعاتی، تحلیل، تصمیم و حمله با سرعت بیشتری به هم متصل میشوند. اگر در جنگهای پیشین ممکن بود ساعتها یا حتی روزها طول بکشد تا یک تصویر ماهوارهای تحلیل و به تصمیم عملیاتی تبدیل شود، هدف Maven کاهش این فاصله به چند دقیقه یا حتی چند ثانیه بود.
اما این پروژه از همان آغاز نیز با بحثهای جدی اخلاقی و سیاسی روبهرو شد. در سال ۲۰۱۸ مشخص شد شرکت گوگل در توسعه برخی الگوریتمهای پروژه Maven مشارکت دارد. انتشار این خبر موجی از اعتراض در میان کارکنان این شرکت برانگیخت. هزاران کارمند گوگل نامهای سرگشاده امضا کردند و خواستار خروج شرکت از این پروژه شدند، با این استدلال که فناوری هوش مصنوعی نباید در خدمت کاربردهای نظامی قرار گیرد. در نهایت گوگل اعلام کرد قرارداد خود با Maven را تمدید نخواهد کرد. (گزارش رویترز، ژوئن ۲۰۱۸)
با وجود این عقبنشینی، پروژه Maven نه تنها متوقف نشد بلکه گسترش یافت. وزارت دفاع آمریکا در سالهای بعد همکاری با شرکتهای فناوری دیگر از جمله پالانتیر را افزایش داد. رویترز در گزارشی در سال ۲۰۲۴ نوشت که نسخهای از این سامانه با نام Maven Smart System توسط شرکت پالانتیر توسعه یافته و برای کمک به تحلیلگران اطلاعاتی در شناسایی سریع اهداف و «نقاط مورد علاقه نظامی» به کار میرود. این سامانه دادههایی از منابع مختلف ــ از تصاویر ماهوارهای و ویدئوی پهپاد گرفته تا اطلاعات سیگنالی و دادههای میدان نبرد ــ را ترکیب میکند و تلاش میکند الگوهای قابل توجه را به سرعت استخراج کند. (گزارش رویترز، ۲۰۲۴)
در همان گزارش، برخی مقامهای نظامی آمریکا توضیح دادهاند که هدف از این سامانهها افزایش سرعت تصمیمگیری عملیاتی است؛ به عبارت دیگر، کمک به فرماندهان برای اینکه سریعتر بتوانند تشخیص دهند کدام هدف ارزش حمله دارد و کدام نه. چنین سامانههایی میتوانند هزاران تصویر یا داده خام را در زمانی بسیار کوتاه بررسی کنند و موارد مشکوک را برای بررسی انسانی برجسته سازند.
پروژه Maven در سالهای اخیر حتی از سطح ارتش آمریکا نیز فراتر رفته است. ناتو در سال ۲۰۲۵ اعلام کرد که از نسخهای از این فناوری برای پشتیبانی از تحلیل اطلاعاتی و افزایش سرعت تصمیمگیری در عملیات مشترک استفاده خواهد کرد. این اقدام نشان میدهد که هوش مصنوعی در حال تبدیل شدن به یکی از زیرساختهای کلیدی جنگ شبکهمحور است؛ جنگی که در آن داده، الگوریتم و ارتباطات دیجیتال همان اندازه اهمیت دارند که سلاحهای فیزیکی. (گزارش رویترز، ۲۰۲۵)
به همین دلیل، بحث درباره پروژه Maven دیگر فقط درباره یک فناوری خاص نیست؛ بلکه درباره آینده تصمیمگیری نظامی است. آیا این سامانهها صرفاً ابزارهایی برای کمک به تحلیلگران خواهند بود، یا به تدریج به سامانههایی تبدیل میشوند که عملاً مسیر عملیات نظامی را تعیین میکنند؟ پاسخ این پرسش هنوز روشن نیست، اما یک نکته تقریباً قطعی است: پروژهای که در سال ۲۰۱۷ برای کمک به تحلیل تصاویر پهپادی آغاز شد، اکنون به یکی از نمادهای ورود هوش مصنوعی به مرکز میدان نبرد تبدیل شده است.
اهمیت این تحول فقط فنی نیست؛ پیامدهای آن به حوزههای سیاست، حقوق بینالملل و اخلاق نیز کشیده میشود. در نظریه رسمی بسیاری از ارتشها هنوز تأکید میشود که «انسان در حلقه» (human-in-the-loop) باقی مانده است؛ یعنی تصمیم نهایی برای استفاده از نیروی مرگبار باید توسط یک فرمانده یا اپراتور انسانی تأیید شود. اما در سالهای اخیر، پژوهشگران و نهادهای حقوق بشردوستانه بارها پرسیدهاند که در عمل این حضور انسانی تا چه اندازه واقعی و مؤثر است. کمیته بینالمللی صلیب سرخ هشدار داده است که بسیاری از سامانههای مبتنی بر یادگیری ماشین به دلیل پیچیدگی مدلها و حجم دادههای مورد استفاده، برای کاربرانشان نیز تا حد زیادی «جعبهسیاه» باقی میمانند؛ یعنی حتی اپراتورهایی که از سامانه استفاده میکنند لزوماً نمیتوانند دقیقاً توضیح دهند چرا یک هدف یا الگو به عنوان «مشکوک» یا «اولویتدار» شناسایی شده است. این نهاد تأکید میکند که چنین ویژگیای میتواند اجرای اصول بنیادین حقوق بشردوستانه ــ از جمله تمایز میان اهداف نظامی و غیرنظامی و اصل تناسب در حمله ــ را پیچیدهتر کند. (کمیته بینالمللی صلیب سرخ، گزارش درباره سلاحهای خودمختار، ۲۰۲۱)
در کنار این مسئله، مطالعات دانشگاهی درباره رفتار انسان در تعامل با سامانههای خودکار نشان دادهاند که در محیطهای پیچیده و پرتنش، انسانها تمایل دارند به توصیههای الگوریتمی بیش از حد اعتماد کنند. این پدیده که در ادبیات علمی با عنوان «تعصب خودکارسازی» (automation bias) شناخته میشود، نخست در پژوهشهای روانشناسی شناختی درباره خلبانان و اپراتورهای سیستمهای پیچیده شناسایی شد. پژوهش کلاسیک Parasuraman و Riley نشان داد که کاربران سامانههای هوشمند حتی زمانی که نشانههایی از خطا وجود دارد، اغلب پیشنهاد ماشین را ترجیح میدهند زیرا فرض میکنند سیستم دادههای بیشتری را پردازش کرده است. در محیطهای نظامی، که ساختار فرماندهی سلسلهمراتبی و فشار زمانی شدید وجود دارد، این گرایش میتواند قویتر نیز شود. پژوهشگران دانشگاههای MIT و استنفورد در مطالعاتی درباره سامانههای تصمیمیار نظامی هشدار دادهاند که اگر سرعت عملیات از توان تحلیل انسانی پیشی بگیرد، نقش انسان ممکن است عملاً به یک «مهر تأیید» بر پیشنهاد الگوریتمی تقلیل یابد. در زبان حقوقی، این وضعیت به یک مشکل اساسی مسئولیتپذیری تبدیل میشود: اگر یک سامانه مبتنی بر هوش مصنوعی هدفی را پیشنهاد دهد و یک اپراتور انسانی تنها چند ثانیه برای تأیید آن داشته باشد، در صورت وقوع خطا دقیقاً چه کسی مسئول است؟ (مطالعات درباره automation bias؛ Parasuraman & Riley؛ همچنین تحلیلهای MIT و استنفورد درباره human-machine teaming)
شجره طیبه و حساسیت به جایگاه نقش هومص
در جنگ جاری نیز همین پرسشها در قالبی بسیار ملموس مطرح شده است. یکی از نمونههایی که توجه گسترده رسانهها و نهادهای حقوق بشری را جلب کرد، حمله به مدرسه دخترانه «شجره طیبه» در میناب در جنوب ایران بود. به گزارش گاردین و نیز گزارش تحقیقی رویترز، شواهد ویدئویی و تحلیل تصاویر ماهوارهای نشان میدهد که این مدرسه در حمله ۲۸ فوریه هدف قرار گرفته و بیش از ۱۶۰ نفر در آن کشته شدهاند که بسیاری از آنها کودکان بودهاند. بررسیهای اولیه حاکی از آن است که موشک مورد استفاده احتمالاً یک موشک کروز تاماهاوک آمریکایی بوده است. (گزارش گاردین، مارس ۲۰۲۶؛ گزارش تحقیقی رویترز، مارس ۲۰۲۶)
آنچه این حادثه را از نظر تحلیلگران نظامی و حقوقی برجسته کرده، فقط تلفات سنگین آن نیست، بلکه مسئله دادههای مورد استفاده برای هدفگیری است. رویترز گزارش داده است که برخی از اطلاعاتی که احتمالاً در فرایند شناسایی هدف نقش داشتهاند به بیش از یک دهه پیش بازمیگردند؛ دادههایی که به سالهای ابتدایی دهه ۲۰۱۰ مربوط بودهاند. این در حالی است که بررسیهای بعدی نشان دادهاند ساختمان مدرسه در سالهای اخیر فعالیت آموزشی داشته، در تصاویر ماهوارهای بهوضوح قابل شناسایی بوده و حتی در دسامبر ۲۰۲۵ نیز نشانههایی از فعالیت آن دیده میشده است. (گزارش رویترز، مارس ۲۰۲۶)
اگر تحقیقات رسمی بعدی این یافتهها را تأیید کند، این پرونده میتواند به یکی از مهمترین نمونههای شکاف میان ظرفیت فناوری و کیفیت داده تبدیل شود. سامانههایی مانند Maven یا سامانههای مشابه ادعا میکنند میتوانند حجم عظیمی از دادهها ــ از تصاویر ماهوارهای تا اطلاعات سیگنالی و دادههای میدانی ــ را در زمانی کوتاه تحلیل کنند. اما همانطور که متخصصان اطلاعات نظامی بارها تأکید کردهاند، کیفیت خروجی چنین سامانههایی به شدت به بهروز بودن و صحت دادههای ورودی وابسته است. در واقع، یکی از خطرهای اصلی در سامانههای تصمیمیار هوش مصنوعی این است که الگوریتمها میتوانند دادههای قدیمی یا ناقص را با سرعتی بسیار بالا پردازش کنند و نتیجهای به ظاهر دقیق تولید کنند، در حالی که خطای اصلی در سطح دادهها پنهان مانده است.
به همین دلیل، حادثه میناب برای بسیاری از تحلیلگران تنها یک تراژدی انسانی نیست، بلکه نمونهای از چالشهای عمیقتر جنگ الگوریتمی محسوب میشود. اگر سامانههای مبتنی بر هوش مصنوعی قرار است در آینده بخش بیشتری از فرایندهای اطلاعاتی و عملیاتی را هدایت کنند، پرسش اساسی این است که چگونه میتوان اطمینان یافت دادههای مورد استفاده بهروز، قابل اعتماد و قابل بررسی مستقل هستند ــ و مهمتر از آن، چگونه میتوان اطمینان یافت که در لحظه تصمیم، هنوز فضایی واقعی برای قضاوت انسانی باقی مانده است.
همینجا باید محتاط بود. تا این لحظه هیچ سند علنی و قابل اتکایی منتشر نشده که نشان دهد یک سامانه مشخص هوش مصنوعی ــ مانند Maven یا یک مدل زبانی نظامی ــ مستقیماً حمله به مدرسه شجره طیبه را پیشنهاد کرده است. در گزارشهای موجود، چنین پیوند مستقیمی هنوز در حد گمانهزنی باقی مانده و هیچ مقام رسمی نظامی نیز آن را تأیید نکرده است. به همین دلیل، بسیاری از پژوهشگران حقوق جنگ و متخصصان فناوری تأکید میکنند که تمایز میان «سامانههای تصمیمیار» و «سامانههای تصمیمگیر» باید با دقت حفظ شود. در سامانههای تصمیمیار، الگوریتمها صرفاً دادهها را تحلیل و گزینههایی را پیشنهاد میکنند و تصمیم نهایی در اختیار انسان باقی میماند؛ اما منتقدان هشدار میدهند که در شرایط عملیاتی واقعی، سرعت بالای پردازش داده میتواند عملاً فضای بررسی مستقل انسانی را محدود کند. پژوهشهای مؤسسه RAND درباره کاربرد هوش مصنوعی در عملیات نظامی نیز به همین نکته اشاره کرده و هشدار دادهاند که فشار برای کاهش زمان تصمیمگیری در میدان نبرد ممکن است «اصطکاکهای سنتی» ــ از بازبینی حقوقی تا ارزیابی مجدد اطلاعات ــ را کاهش دهد. (RAND Corporation، گزارش درباره AI در تصمیمگیری نظامی، ۲۰۲۱)
اما شاید مهمترین شکاف امروز نه میان ارتشها، بلکه میان دولتها و شرکتهای سازنده مدلهای هوش مصنوعی شکل گرفته است. برخلاف صنایع تسلیحاتی سنتی که از دههها پیش در چارچوب قراردادهای مشخص با دولتها کار میکردند، شرکتهای سازنده مدلهای زبانی و سامانههای هوش مصنوعی اغلب در فضایی میان فناوری مصرفی و زیرساختهای راهبردی فعالیت میکنند. همین وضعیت باعث شده است که با ورود این فناوریها به حوزه امنیت ملی، پرسشی بنیادی مطرح شود: چه کسی قواعد استفاده از هوش مصنوعی در جنگ را تعیین میکند؟ دولتها یا شرکتهایی که این سامانهها را میسازند؟
نبرد بر سر نقش هومص در نبرد: مورد آنتروپیک
در روزهای پیش و پس از آغاز حمله به ایران، این تنش به شکلی کمسابقه در رابطه میان پنتاگون و شرکت Anthropic آشکار شد. رویترز گزارش داد که دولت آمریکا این شرکت را بهعنوان یک «ریسک زنجیره تأمین» معرفی کرده است؛ اقدامی که پس از آن صورت گرفت که Anthropic حاضر نشد برخی از محدودیتهای اخلاقی مدلهایش را برای کاربردهای نظامی بردارد. بر اساس این گزارش، مدیران این شرکت تأکید کردهاند که مدلهایشان نباید برای سلاحهای کاملاً خودمختار یا نظارت گسترده داخلی مورد استفاده قرار گیرند. (گزارش رویترز، مارس ۲۰۲۶ درباره اختلاف Anthropic و پنتاگون)
در بیانیه رسمی Anthropic نیز اشاره شد که شرکت تلاش میکند کنترلهای ایمنی و محدودیتهای استفاده را در سطح مدل حفظ کند، حتی اگر مشتریان دولتی خواستار حذف این محدودیتها باشند. این شرکت در اسناد سیاستی خود بارها هشدار داده است که مدلهای زبانی بزرگ هنوز از نظر قابلیت اطمینان، شفافیت و پیشبینیپذیری به مرحلهای نرسیدهاند که بتوان آنها را در سامانههای کاملاً خودمختار نظامی به کار گرفت. (بیانیههای سیاستی Anthropic درباره Responsible AI)
در مقابل، برخی مقامهای پنتاگون استدلال کردهاند که تصمیمگیری درباره کاربردهای نظامی نباید در اختیار شرکتهای خصوصی قرار گیرد. از نگاه آنها، وقتی یک فناوری به سطحی از اهمیت راهبردی میرسد، دولت باید اختیار کامل داشته باشد که از آن در چارچوب امنیت ملی استفاده کند.
در همین زمان، شرکت OpenAI نیز موضع خود را در قبال همکاری با دولت آمریکا روشن کرد. این شرکت در بیانیهای اعلام کرد که با وزارت جنگ ایالات متحده همکاریهایی در حوزه هوش مصنوعی دارد، اما مدلهایش برای نظارت داخلی بر شهروندان آمریکایی یا هدایت مستقیم سلاحهای خودمختار استفاده نخواهند شد. همچنین گفته شد که این سامانهها بهصورت خدمات ابری ارائه میشوند و در کاربردهای نظامی نیز انسان در حلقه تصمیمگیری باقی میماند. (بیانیه رسمی OpenAI درباره همکاری با دولت آمریکا)
این دو رویکرد در واقع بازتاب دو فلسفه متفاوت در رابطه میان فناوری و دولت است. در یک سو، شرکتهایی قرار دارند که تلاش میکنند با محدودیتهای قراردادی و فنی دامنه استفاده از مدلهایشان را کنترل کنند. در سوی دیگر، دولتهایی هستند که معتقدند در حوزه امنیت ملی، اختیار نهایی باید در دست حاکمیت باقی بماند. با گسترش کاربردهای نظامی هوش مصنوعی، این تنش احتمالاً در سالهای آینده بیشتر نیز خواهد شد.
اسطخدوس مرگبار
در سوی دیگر این بحث، تجربه اسرائیل در جنگ غزه نیز بهعنوان یک پیشزمینه مهم مطرح میشود. در آوریل ۲۰۲۴، رویترز گزارش داد که دولت آمریکا در حال بررسی گزارشهایی درباره استفاده اسرائیل از سامانهای Lavender برای شناسایی اهداف بمباران در غزه است. این گزارشها نخست توسط رسانههای تحقیقی +972 Magazine و Local Call منتشر شدند و ادعا میکردند که این سامانه با استفاده از تحلیل دادههای گسترده، افراد مظنون به عضویت در گروههای مسلح را شناسایی کرده و فهرستی از اهداف احتمالی تولید میکند. (گزارش رویترز، آوریل ۲۰۲۴ درباره سامانه Lavender)
بر اساس همان گزارشها، سامانه Lavender میتوانست دادههای نظارتی گسترده را تحلیل کند و به هر فرد یک امتیاز احتمال عضویت در گروههای مسلح اختصاص دهد. منتقدان گفتهاند که در برخی موارد نظارت انسانی بر این فرایند محدود بوده و تصمیمگیریها با سرعت بالایی انجام میشده است. در مقابل، ارتش اسرائیل این ادعا را رد کرده و گفته است که هوش مصنوعی صرفاً به عنوان ابزار کمکی برای تحلیلگران اطلاعاتی استفاده میشود و هیچ سامانهای بهطور خودکار افراد را بهعنوان هدف حمله انتخاب نمیکند. (واکنش رسمی ارتش اسرائیل به گزارش Lavender)
همین دوگانگی در روایتها، پیچیدگی تحلیل جنگ الگوریتمی را نشان میدهد. از یک سو، گزارشهای تحقیقی و شهادت برخی منابع نظامی از افزایش اتکای ارتشها به سامانههای دادهمحور خبر میدهند. از سوی دیگر، مقامهای رسمی اغلب تأکید میکنند که تصمیم نهایی همچنان انسانی است. برای ناظران مستقل، واقعیت احتمالاً جایی میان این دو قرار دارد.
آنچه تقریباً همه تحلیلگران بر آن توافق دارند این است که مسیر کلی جنگ معاصر ــ از میدانهای نبرد اوکراین و غزه تا درگیریهای جدید در خاورمیانه ــ به سوی اتکای فزاینده به سامانههای تحلیل داده و هدفسازی الگوریتمی حرکت میکند. این سامانهها میتوانند حجم عظیمی از اطلاعات میدان نبرد را در زمانی بسیار کوتاه پردازش کنند و اهداف بالقوه را سریعتر از هر زمان دیگری شناسایی کنند. نتیجه این روند، جنگی است که در آن سرعت پردازش داده و توانایی الگوریتمها به اندازه قدرت آتش اهمیت پیدا کرده است؛ تحولی که بسیاری از نظریهپردازان نظامی آن را یکی از نشانههای آغاز عصر تازهای در تاریخ جنگ میدانند.
هومص اجرا کننده آتش

اما تحول فقط به اتاق تحلیل و انتخاب هدف محدود نمانده است. هوش مصنوعی اکنون به حوزهای هم وارد شده که زمانی قلمرو انحصاری خلبانان و اپراتورهای انسانی بود: هدایت، مانور و ناوبری. دارپا و نیروی هوایی آمریکا در آوریل ۲۰۲۴ اعلام کردند که در چارچوب برنامه Air Combat Evolution (ACE)، الگوریتمهای هوش مصنوعی توانستهاند یک جنگنده آزمایشی X-62A VISTA را در نبرد هوایی نزدیک علیه یک F-16 انسانهدایتشونده کنترل کنند. اهمیت این آزمایش فقط نمادین نبود؛ نشان داد که هوش مصنوعی دیگر صرفاً ابزاری برای تحلیل دادههای پیش از شلیک نیست، بلکه میتواند وارد لایهای شود که در آن هواگرد باید در کسری از ثانیه تصمیم بگیرد، مانور بدهد، فاصله را تنظیم کند و واکنش نشان دهد.
در پهپادها نیز روند مشابهی سالهاست در جریان است. دارپا در برنامههای Fast Lightweight Autonomy (FLA) و بعدتر CODE نشان داده بود که پهپادها میتوانند در محیطهای فاقد GPS یا حتی در شرایط قطع ارتباطات، با اتکا به حسگرهای درونی، بینایی ماشین و الگوریتمهای برنامهریزی آنبرد، با حداقل فرمان انسانی ناوبری و مأموریت خود را ادامه دهند. به بیان دیگر، هوش مصنوعی در جنگ مدرن فقط در تعیین اینکه «چه چیزی هدف است» مداخله نمیکند؛ increasingly در اینکه «هواگرد یا پهپاد چگونه در محیط خصمانه راه خود را پیدا کند، چگونه مانور بدهد و چگونه به هدف برسد» نیز نقش میگیرد. این همان نقطهای است که بحث را از «هوش مصنوعی در زنجیره کشتن» به «هوش مصنوعی در هدایت خودِ ابزار کشتن» گسترش میدهد.
هوش مصنوعی بازیگر اصلی عصر پروپاگندا
این فقط نبرد موشک و داده نیست؛ نبرد روایت هم هست. در جنگهای قرن بیستویکم، کنترل روایت عمومی گاه به اندازه کنترل آسمان یا میدان نبرد اهمیت پیدا میکند. در جریان جنگ ایران نیز موجی از ویدئوها، تصاویر و پیامهای تولیدشده با هوش مصنوعی در شبکههای اجتماعی دستبهدست شد؛ برخی از آنها ادعای اصابت موشک به اهدافی خاص را مطرح میکردند و برخی دیگر پیروزیهای اغراقآمیز یا تخریبهای گسترده را نمایش میدادند. تحلیلگران رسانهای میگویند در بسیاری از این موارد تشخیص اصالت تصویر برای کاربران عادی بسیار دشوار بوده است. همین موضوع باعث شده که پژوهشگران ارتباطات از مفهومی به نام «سود دروغگو» (Liar’s Dividend) سخن بگویند. این اصطلاح نخست توسط پژوهشگران دانشگاه هاروارد و مؤسسه MIT مطرح شد و به وضعیتی اشاره دارد که در آن امکان تولید دیپفیکهای بسیار واقعگرایانه باعث میشود حتی شواهد واقعی نیز قابل انکار شوند؛ یعنی یک بازیگر سیاسی میتواند به سادگی بگوید: «این ویدئو هم جعلی است.» (پژوهش Chesney & Citron درباره Liar’s Dividend، ۲۰۱۹)
در چنین فضایی، هوش مصنوعی تنها ابزار تولید محتوای جعلی نیست، بلکه ابزار ایجاد تردید سیستماتیک نیز هست. پژوهشگران امنیت اطلاعات هشدار میدهند که در محیطی که کاربران میدانند تصاویر و صداها میتوانند بهطور قانعکنندهای جعل شوند، اعتماد عمومی به شواهد دیداری و شنیداری کاهش مییابد. نتیجه این روند، آن چیزی است که برخی تحلیلگران «بحران معرفتی در زمان جنگ» مینامند؛ وضعیتی که در آن نه تنها دروغها سریعتر منتشر میشوند، بلکه حقیقت نیز دشوارتر اثبات میشود. (مطالعات MIT Media Lab درباره دیپفیک و اعتماد عمومی)
این مشکل زمانی پیچیدهتر میشود که دسترسی آزاد به اینترنت محدود باشد. در بسیاری از درگیریهای اخیر ــ از اوکراین تا خاورمیانه ــ دولتها یا بازیگران درگیر تلاش کردهاند جریان اطلاعات را کنترل کنند، سرعت اینترنت را کاهش دهند یا دسترسی به برخی پلتفرمها را محدود کنند. در چنین شرایطی، امکان راستیآزمایی مستقل کاهش مییابد و فضای بیشتری برای انتشار روایتهای متناقض فراهم میشود. به همین دلیل، روشهایی مانند ژئولوکیشن تصاویر، تحلیل دادههای ماهوارهای و راستیآزمایی چندمنبعی که توسط گروههای روزنامهنگاری تحقیقاتی مانند Bellingcat توسعه یافتهاند، به یکی از ابزارهای کلیدی برای بررسی ادعاهای جنگی تبدیل شدهاند. (گزارش Bellingcat درباره روشهای OSINT در بررسی جنگها)
در واقع، در عصر جنگ الگوریتمی، روزنامهنگاری مبتنی بر داده و شواهد باز دیگر صرفاً یک شیوه حرفهای نیست؛ نوعی دفاع مدنی در برابر جنگ اطلاعاتی محسوب میشود. همانطور که پژوهشگران ارتباطات در دانشگاه آکسفورد اشاره کردهاند، درگیریهای معاصر اغلب در دو سطح همزمان رخ میدهند: در میدان فیزیکی و در میدان اطلاعاتی. در هر دو میدان نیز فناوریهای دیجیتال نقشی تعیینکننده پیدا کردهاند. (Oxford Internet Institute، مطالعات درباره disinformation در جنگ)
نظم فروریخته حقوق و قوانین جنگ
از نظر حقوق بینالملل، اما جهان هنوز بسیار عقبتر از این تحولات حرکت میکند. رویترز در گزارشی در اوایل مارس نوشت که رئیس مذاکرات ژنو درباره «سامانههای سلاح خودمختار مرگبار» (LAWS) هشدار داده است که سرعت پیشرفت فناوری ممکن است از روند تدوین قواعد حقوقی پیشی بگیرد. این مذاکرات که در چارچوب کنوانسیون برخی سلاحهای متعارف سازمان ملل (CCW) برگزار میشود، سالهاست درباره امکان تنظیم قواعد جهانی برای سلاحهای خودمختار بحث میکند، اما هنوز به توافقی الزامآور نرسیده است. (گزارش رویترز درباره مذاکرات ژنو درباره LAWS، مارس ۲۰۲۶)
همان گزارش یادآوری میکند که اگرچه تقریباً همه دولتها اصل پایبندی به حقوق بشردوستانه بینالمللی را میپذیرند ــ اصولی مانند تمایز میان اهداف نظامی و غیرنظامی یا تناسب در حمله ــ هنوز استانداردهای مشخصی درباره نحوه استفاده از سامانههای هوش مصنوعی در میدان نبرد وجود ندارد. بسیاری از دولتها نیز تمایل ندارند محدودیتهایی بپذیرند که ممکن است برتری نظامی آنها را در آینده کاهش دهد.
نمونهای از این اختلاف در نشست REAIM (Responsible AI in the Military Domain) دیده شد؛ ابتکاری که با هدف تدوین اصول مسئولانه برای استفاده از هوش مصنوعی در حوزه نظامی شکل گرفت. در یکی از نشستهای این ابتکار، تنها ۳۵ کشور از میان ۸۵ کشور شرکتکننده بیانیهای غیرالزامآور را امضا کردند که بر اصولی مانند حفظ مسئولیت انسانی، شفافیت در زنجیره فرماندهی، ارزیابی ریسک و آموزش نیروهای نظامی تأکید میکرد. با این حال، برخی قدرتهای بزرگ از جمله ایالات متحده و چین از امضای این متن خودداری کردند. (گزارش رویترز درباره نشست REAIM، ۲۰۲۴)
این شکاف خطرناک است، زیرا در همان زمان رقابت تسلیحاتی در حوزه هوش مصنوعی با سرعت در حال گسترش است. ارتشهای بزرگ جهان میلیاردها دلار در سامانههای تحلیل داده، پهپادهای خودکار، شبکههای فرماندهی مبتنی بر هوش مصنوعی و سامانههای جنگ الکترونیک سرمایهگذاری میکنند. بسیاری از تحلیلگران امنیتی معتقدند که این رقابت میتواند به نوعی «مسابقه تسلیحاتی الگوریتمی» منجر شود؛ وضعیتی که در آن کشورها برای عقب نماندن از رقبای خود ناچارند فناوریهای مشابهی توسعه دهند.
آینده چگونه خواهد بود؟
با این حال، آینده جنگ احتمالاً شبیه سناریوی ساده فیلمهای علمیتخیلی نخواهد بود.
بعید است ناگهان ارتشهایی متشکل از «رباتهای قاتل کاملاً مستقل» جایگزین نیروهای انسانی شوند. سناریوی محتملتر چیزی است که برخی پژوهشگران آن را «اتوماسیون لایهلایه» مینامند. در چنین ساختاری، هوش مصنوعی در مراحل مختلف فرایند نظامی به کار گرفته میشود: مدلهایی که دادهها را خلاصه میکنند، سامانههایی که اهداف احتمالی را پیشنهاد میدهند، ابزارهایی که طرحهای عملیاتی را شبیهسازی میکنند، الگوریتمهایی که خسارت احتمالی را برآورد میکنند و شبکههایی که فرماندهی و کنترل عملیات را مدیریت میکنند. (مطالعات RAND درباره آینده AI در عملیات نظامی)
در این سناریو، خطر اصلی نه ظهور ناگهانی یک ماشین خارج از کنترل، بلکه عادی شدن واگذاری تدریجی قضاوت انسانی به سامانههای الگوریتمی است. هر مرحله از این واگذاری ممکن است کوچک و منطقی به نظر برسد: یک الگوریتم برای تحلیل تصویر، یک سامانه برای رتبهبندی اهداف، یک ابزار برای پیشنهاد طرح حمله. اما در مجموع، این تصمیمهای کوچک میتوانند ساختار تصمیمگیری نظامی را بهطور اساسی تغییر دهند.
به همین دلیل، بسیاری از پژوهشگران حقوقی و نهادهای بشردوستانه بر مفهوم «کنترل انسانی معنادار» (Meaningful Human Control) تأکید میکنند. این مفهوم به این معناست که انسان باید نهتنها بهصورت نمادین، بلکه بهطور واقعی و آگاهانه در تصمیمهای مرگبار حضور داشته باشد و بتواند دادهها، فرضیات و پیامدهای یک حمله را بررسی کند. بدون چنین کنترلی، مسئولیتپذیری حقوقی و اخلاقی در میدان نبرد بهسادگی فرو میپاشد. (کمیته بینالمللی صلیب سرخ درباره Meaningful Human Control)
جنگ ایران هنوز پایان نیافته است، اما یک نکته از هماکنون روشن به نظر میرسد: میدان نبرد آینده فقط در آسمانها و روی نقشههای نظامی شکل نمیگیرد. این میدان در پایگاههای داده، مدلهای زبانی، سامانههای بینایی ماشین و قراردادهای محرمانه میان دولتها و شرکتهای فناوری نیز ساخته میشود. موشک تاماهاوک هنوز همان سلاح مرگبار قدیمی است، اما پیش از آنکه شلیک شود، این الگوریتمها هستند که میبینند، دادهها را دستهبندی میکنند، اهداف را اولویتبندی میکنند و زمان را از انسان میگیرند.
شاید مهمترین نکته این داستان باشد. ما نباید انگشت اتهام را به سوی ابزار نشانه برویم تا تصمیم گیران در پشت آن پنهان بمانند. همین هوش مصنوعی امروز در حال استفاده برای کشف داروهای جدید، توسعه علمی و فناوری و نجات مردم و زمین است. ما هستیم که انتخاب می کنیم از این توان عظیم کجا استفاده کنیم. همان طور که فناوری که امروز برای کشتن مردم و نابودی زمین در قالب موشک استفاده می شود می تواند ما را به فضا ببرد.
به همین دلیل، پرسش اصلی این جنگ شاید نه درباره قدرت هوش مصنوعی، بلکه درباره مسئولیت انسانی باشد.
وقتی سرعت تصمیمگیری ماشین از ظرفیت قضاوت انسانی جلو میزند، چه کسی پاسخگوی پیامدهای آن خواهد بود؟ اگر پاسخ این پرسش روشن نباشد، آنچه امروز «جعبهسیاه الگوریتمی» نامیده میشود دیگر فقط یک مشکل فنی نخواهد بود؛ بلکه ممکن است به یکی از پیچیدهترین و خطرناکترین مسائل سیاسی عصر ما تبدیل شود.