آیا عصر اسکای‌نت آغاز شده است؟

جنگ ایران و نخستین آزمون سربازی هوش مصنوعی

یکی از هشدارهای همیشگی آینده‌نگران در زمینه هوش مصنوعی، استفاده از این فناوری انقلابی برای مقاصد نظامی بوده است؛ اینکه انسان در مهم‌ترین تصمیم خود، یعنی تصمیم آگاهانه به سلب حق حیات دیگری، مسئولیت اخلاقی، عقلی و انتخاب را از خود سلب و به ماشین واگذار کند. آن‌ها هشدار می‌دادند که شاید این روند کم‌کم و با توسعه ابزارهای هوش مصنوعی به جایی برسد که دستور، هدف یا به قول امروز پرامپتی نادقیق باعث شود ماشین دست به اقدام علیه یک کشور یا حتی بشریت بزند. اسکای‌نت، هوش مصنوعی معروف در مجموعه ترمیناتور، برای نابودی انسان قیام کرد؛ نمونه‌ای از همین هراس که در آن ماشین، مأموریت دفاع و برقراری صلح را چنان تفسیر می‌کند که خود انسان را عامل تهدید می‌بیند.

اما تا آن روز چقدر فاصله داریم؟ آلوین تافلر در شوک آینده هشدار می‌داد که شتاب دگرگونی‌های فناورانه گاه چنان بالاست که جوامع متوجه عبور از آستانه‌های تاریخی نمی‌شوند. شاید به همین دلیل است که ما گاهی بی‌آن‌که کاملاً آگاه باشیم، وارد دورانی می‌شویم که زمانی از آن هراس داشته‌ایم. آیا سپیده عصر اسکای‌نت آغاز شده است؟ جنگ ایالات متحده و اسرائیل علیه ایران ممکن است یکی از نخستین نشانه‌های آغاز این عصر باشد.

سپیده دم جنگ هومص

جنگی که از ۲۸ فوریه ۲۰۲۶ با حملات آمریکا و اسرائیل به ایران آغاز شد، فقط یک رویارویی دیگر در خاورمیانه نبود. به گزارش رویترز، پنتاگون نام این عملیات را «Epic Fury» گذاشت و از همان ساعات اول، علاوه بر موشک‌های تاماهاوک و حملات هوایی، از اختلال‌های سایبری و فضایی برای کور و کند کردن شبکه‌های ارتباطی و دفاعی ایران استفاده شد. در ۲۴ ساعت نخست نیز بیش از هزار هدف مورد حمله قرار گرفتند. این همان نقطه‌ای است که جنگ امروز را از بسیاری از جنگ‌های پیشین جدا می‌کند: دیگر فقط حجم آتش مهم نیست، بلکه سرعت پردازش داده، اولویت‌بندی هدف و تبدیل اطلاعات به کنش مرگبار تعیین‌کننده شده است.

اگر بخواهیم این دگرگونی را دقیق‌تر توصیف کنیم، باید از «خودِ سلاح» کمی فاصله بگیریم و به «زنجیره کشتن» نگاه کنیم؛ همان فرایند شناسایی، تأیید، انتخاب و حمله به هدف. آنچه امروز تغییر کرده، فشرده شدن این زنجیره است.

حضور Maven در زنجیره کشتن

پروژه Maven یکی از نخستین تلاش‌های جدی پنتاگون برای وارد کردن هوش مصنوعی به قلب فرایندهای اطلاعاتی و عملیاتی جنگ بود. این برنامه در سال ۲۰۱۷ توسط وزارت دفاع ایالات متحده و در قالب نهادی موسوم به Algorithmic Warfare Cross-Functional Team آغاز شد. هدف اولیه آن نسبتاً محدود به نظر می‌رسید: استفاده از الگوریتم‌های یادگیری ماشین برای تحلیل خودکار تصاویر و ویدئوهایی که از پهپادها و ماهواره‌های نظامی به دست می‌آمد. در آن زمان فرماندهان آمریکایی با مشکلی روبه‌رو بودند که خود آن را «سیلاب داده» می‌نامیدند. پهپادهای شناسایی و ماهواره‌های نظارتی هر روز هزاران ساعت تصویر تولید می‌کردند، اما تحلیل انسانی این حجم داده به قدری زمان‌بر بود که بسیاری از اطلاعات ارزشمند عملاً هرگز بررسی نمی‌شد. پروژه Maven قرار بود این گلوگاه را برطرف کند و به ماشین‌ها بیاموزد چگونه در تصاویر، خودروها، ساختمان‌ها، افراد یا فعالیت‌های مشکوک را شناسایی و طبقه‌بندی کنند. (به گفته وزارت دفاع آمریکا، ۲۰۱۷)

در سال‌های نخست، Maven بیشتر به عنوان یک سامانه کمک‌تحلیلگر معرفی می‌شد؛ الگوریتم‌ها می‌توانستند در تصاویر پهپادی اشیایی مانند خودروهای نظامی یا مواضع احتمالی دشمن را علامت‌گذاری کنند تا تحلیلگران انسانی سریع‌تر به نقاط مهم توجه کنند. اما به تدریج دامنه آن گسترده‌تر شد. آژانس اطلاعات مکانی–جغرافیایی آمریکا (NGA) می‌گوید این پروژه اکنون در «طیف وسیعی از گردش‌کارهای اطلاعاتی» ادغام شده و از یادگیری ماشین برای تشخیص، طبقه‌بندی و ردیابی اشیا در تصویر و ویدئو استفاده می‌کند؛ ابزاری که به گفته این آژانس می‌تواند مزیت تصمیم‌گیری را در «سرعت درگیری» حفظ کند، یعنی در همان زمانی که عملیات نظامی در حال وقوع است.

در این مرحله، Maven دیگر صرفاً یک ابزار تحلیل تصویر نبود، بلکه بخشی از تلاش بزرگ‌تر ارتش آمریکا برای ایجاد آن چیزی شد که فرماندهان نظامی آن را «زنجیره کشتن سریع‌تر» می‌نامند؛ فرایندی که در آن داده‌های اطلاعاتی، تحلیل، تصمیم و حمله با سرعت بیشتری به هم متصل می‌شوند. اگر در جنگ‌های پیشین ممکن بود ساعت‌ها یا حتی روزها طول بکشد تا یک تصویر ماهواره‌ای تحلیل و به تصمیم عملیاتی تبدیل شود، هدف Maven کاهش این فاصله به چند دقیقه یا حتی چند ثانیه بود.

اما این پروژه از همان آغاز نیز با بحث‌های جدی اخلاقی و سیاسی روبه‌رو شد. در سال ۲۰۱۸ مشخص شد شرکت گوگل در توسعه برخی الگوریتم‌های پروژه Maven مشارکت دارد. انتشار این خبر موجی از اعتراض در میان کارکنان این شرکت برانگیخت. هزاران کارمند گوگل نامه‌ای سرگشاده امضا کردند و خواستار خروج شرکت از این پروژه شدند، با این استدلال که فناوری هوش مصنوعی نباید در خدمت کاربردهای نظامی قرار گیرد. در نهایت گوگل اعلام کرد قرارداد خود با Maven را تمدید نخواهد کرد. (گزارش رویترز، ژوئن ۲۰۱۸)

با وجود این عقب‌نشینی، پروژه Maven نه تنها متوقف نشد بلکه گسترش یافت. وزارت دفاع آمریکا در سال‌های بعد همکاری با شرکت‌های فناوری دیگر از جمله پالانتیر را افزایش داد. رویترز در گزارشی در سال ۲۰۲۴ نوشت که نسخه‌ای از این سامانه با نام Maven Smart System توسط شرکت پالانتیر توسعه یافته و برای کمک به تحلیلگران اطلاعاتی در شناسایی سریع اهداف و «نقاط مورد علاقه نظامی» به کار می‌رود. این سامانه داده‌هایی از منابع مختلف ــ از تصاویر ماهواره‌ای و ویدئوی پهپاد گرفته تا اطلاعات سیگنالی و داده‌های میدان نبرد ــ را ترکیب می‌کند و تلاش می‌کند الگوهای قابل توجه را به سرعت استخراج کند. (گزارش رویترز، ۲۰۲۴)

در همان گزارش، برخی مقام‌های نظامی آمریکا توضیح داده‌اند که هدف از این سامانه‌ها افزایش سرعت تصمیم‌گیری عملیاتی است؛ به عبارت دیگر، کمک به فرماندهان برای این‌که سریع‌تر بتوانند تشخیص دهند کدام هدف ارزش حمله دارد و کدام نه. چنین سامانه‌هایی می‌توانند هزاران تصویر یا داده خام را در زمانی بسیار کوتاه بررسی کنند و موارد مشکوک را برای بررسی انسانی برجسته سازند.

پروژه Maven در سال‌های اخیر حتی از سطح ارتش آمریکا نیز فراتر رفته است. ناتو در سال ۲۰۲۵ اعلام کرد که از نسخه‌ای از این فناوری برای پشتیبانی از تحلیل اطلاعاتی و افزایش سرعت تصمیم‌گیری در عملیات مشترک استفاده خواهد کرد. این اقدام نشان می‌دهد که هوش مصنوعی در حال تبدیل شدن به یکی از زیرساخت‌های کلیدی جنگ شبکه‌محور است؛ جنگی که در آن داده، الگوریتم و ارتباطات دیجیتال همان اندازه اهمیت دارند که سلاح‌های فیزیکی. (گزارش رویترز، ۲۰۲۵)

به همین دلیل، بحث درباره پروژه Maven دیگر فقط درباره یک فناوری خاص نیست؛ بلکه درباره آینده تصمیم‌گیری نظامی است. آیا این سامانه‌ها صرفاً ابزارهایی برای کمک به تحلیلگران خواهند بود، یا به تدریج به سامانه‌هایی تبدیل می‌شوند که عملاً مسیر عملیات نظامی را تعیین می‌کنند؟ پاسخ این پرسش هنوز روشن نیست، اما یک نکته تقریباً قطعی است: پروژه‌ای که در سال ۲۰۱۷ برای کمک به تحلیل تصاویر پهپادی آغاز شد، اکنون به یکی از نمادهای ورود هوش مصنوعی به مرکز میدان نبرد تبدیل شده است.

اهمیت این تحول فقط فنی نیست؛ پیامدهای آن به حوزه‌های سیاست، حقوق بین‌الملل و اخلاق نیز کشیده می‌شود. در نظریه رسمی بسیاری از ارتش‌ها هنوز تأکید می‌شود که «انسان در حلقه» (human-in-the-loop) باقی مانده است؛ یعنی تصمیم نهایی برای استفاده از نیروی مرگبار باید توسط یک فرمانده یا اپراتور انسانی تأیید شود. اما در سال‌های اخیر، پژوهشگران و نهادهای حقوق بشردوستانه بارها پرسیده‌اند که در عمل این حضور انسانی تا چه اندازه واقعی و مؤثر است. کمیته بین‌المللی صلیب سرخ هشدار داده است که بسیاری از سامانه‌های مبتنی بر یادگیری ماشین به دلیل پیچیدگی مدل‌ها و حجم داده‌های مورد استفاده، برای کاربرانشان نیز تا حد زیادی «جعبه‌سیاه» باقی می‌مانند؛ یعنی حتی اپراتورهایی که از سامانه استفاده می‌کنند لزوماً نمی‌توانند دقیقاً توضیح دهند چرا یک هدف یا الگو به عنوان «مشکوک» یا «اولویت‌دار» شناسایی شده است. این نهاد تأکید می‌کند که چنین ویژگی‌ای می‌تواند اجرای اصول بنیادین حقوق بشردوستانه ــ از جمله تمایز میان اهداف نظامی و غیرنظامی و اصل تناسب در حمله ــ را پیچیده‌تر کند. (کمیته بین‌المللی صلیب سرخ، گزارش درباره سلاح‌های خودمختار، ۲۰۲۱)

در کنار این مسئله، مطالعات دانشگاهی درباره رفتار انسان در تعامل با سامانه‌های خودکار نشان داده‌اند که در محیط‌های پیچیده و پرتنش، انسان‌ها تمایل دارند به توصیه‌های الگوریتمی بیش از حد اعتماد کنند. این پدیده که در ادبیات علمی با عنوان «تعصب خودکارسازی» (automation bias) شناخته می‌شود، نخست در پژوهش‌های روان‌شناسی شناختی درباره خلبانان و اپراتورهای سیستم‌های پیچیده شناسایی شد. پژوهش کلاسیک Parasuraman و Riley نشان داد که کاربران سامانه‌های هوشمند حتی زمانی که نشانه‌هایی از خطا وجود دارد، اغلب پیشنهاد ماشین را ترجیح می‌دهند زیرا فرض می‌کنند سیستم داده‌های بیشتری را پردازش کرده است. در محیط‌های نظامی، که ساختار فرماندهی سلسله‌مراتبی و فشار زمانی شدید وجود دارد، این گرایش می‌تواند قوی‌تر نیز شود. پژوهشگران دانشگاه‌های MIT و استنفورد در مطالعاتی درباره سامانه‌های تصمیم‌یار نظامی هشدار داده‌اند که اگر سرعت عملیات از توان تحلیل انسانی پیشی بگیرد، نقش انسان ممکن است عملاً به یک «مهر تأیید» بر پیشنهاد الگوریتمی تقلیل یابد. در زبان حقوقی، این وضعیت به یک مشکل اساسی مسئولیت‌پذیری تبدیل می‌شود: اگر یک سامانه مبتنی بر هوش مصنوعی هدفی را پیشنهاد دهد و یک اپراتور انسانی تنها چند ثانیه برای تأیید آن داشته باشد، در صورت وقوع خطا دقیقاً چه کسی مسئول است؟ (مطالعات درباره automation bias؛ Parasuraman & Riley؛ همچنین تحلیل‌های MIT و استنفورد درباره human-machine teaming)

شجره طیبه و حساسیت به جایگاه نقش هومص

در جنگ جاری نیز همین پرسش‌ها در قالبی بسیار ملموس مطرح شده است. یکی از نمونه‌هایی که توجه گسترده رسانه‌ها و نهادهای حقوق بشری را جلب کرد، حمله به مدرسه دخترانه «شجره طیبه» در میناب در جنوب ایران بود. به گزارش گاردین و نیز گزارش تحقیقی رویترز، شواهد ویدئویی و تحلیل تصاویر ماهواره‌ای نشان می‌دهد که این مدرسه در حمله ۲۸ فوریه هدف قرار گرفته و بیش از ۱۶۰ نفر در آن کشته شده‌اند که بسیاری از آن‌ها کودکان بوده‌اند. بررسی‌های اولیه حاکی از آن است که موشک مورد استفاده احتمالاً یک موشک کروز تاماهاوک آمریکایی بوده است. (گزارش گاردین، مارس ۲۰۲۶؛ گزارش تحقیقی رویترز، مارس ۲۰۲۶)

آنچه این حادثه را از نظر تحلیلگران نظامی و حقوقی برجسته کرده، فقط تلفات سنگین آن نیست، بلکه مسئله داده‌های مورد استفاده برای هدف‌گیری است. رویترز گزارش داده است که برخی از اطلاعاتی که احتمالاً در فرایند شناسایی هدف نقش داشته‌اند به بیش از یک دهه پیش بازمی‌گردند؛ داده‌هایی که به سال‌های ابتدایی دهه ۲۰۱۰ مربوط بوده‌اند. این در حالی است که بررسی‌های بعدی نشان داده‌اند ساختمان مدرسه در سال‌های اخیر فعالیت آموزشی داشته، در تصاویر ماهواره‌ای به‌وضوح قابل شناسایی بوده و حتی در دسامبر ۲۰۲۵ نیز نشانه‌هایی از فعالیت آن دیده می‌شده است. (گزارش رویترز، مارس ۲۰۲۶)

اگر تحقیقات رسمی بعدی این یافته‌ها را تأیید کند، این پرونده می‌تواند به یکی از مهم‌ترین نمونه‌های شکاف میان ظرفیت فناوری و کیفیت داده تبدیل شود. سامانه‌هایی مانند Maven یا سامانه‌های مشابه ادعا می‌کنند می‌توانند حجم عظیمی از داده‌ها ــ از تصاویر ماهواره‌ای تا اطلاعات سیگنالی و داده‌های میدانی ــ را در زمانی کوتاه تحلیل کنند. اما همان‌طور که متخصصان اطلاعات نظامی بارها تأکید کرده‌اند، کیفیت خروجی چنین سامانه‌هایی به شدت به به‌روز بودن و صحت داده‌های ورودی وابسته است. در واقع، یکی از خطرهای اصلی در سامانه‌های تصمیم‌یار هوش مصنوعی این است که الگوریتم‌ها می‌توانند داده‌های قدیمی یا ناقص را با سرعتی بسیار بالا پردازش کنند و نتیجه‌ای به ظاهر دقیق تولید کنند، در حالی که خطای اصلی در سطح داده‌ها پنهان مانده است.

به همین دلیل، حادثه میناب برای بسیاری از تحلیلگران تنها یک تراژدی انسانی نیست، بلکه نمونه‌ای از چالش‌های عمیق‌تر جنگ الگوریتمی محسوب می‌شود. اگر سامانه‌های مبتنی بر هوش مصنوعی قرار است در آینده بخش بیشتری از فرایندهای اطلاعاتی و عملیاتی را هدایت کنند، پرسش اساسی این است که چگونه می‌توان اطمینان یافت داده‌های مورد استفاده به‌روز، قابل اعتماد و قابل بررسی مستقل هستند ــ و مهم‌تر از آن، چگونه می‌توان اطمینان یافت که در لحظه تصمیم، هنوز فضایی واقعی برای قضاوت انسانی باقی مانده است.

همین‌جا باید محتاط بود. تا این لحظه هیچ سند علنی و قابل اتکایی منتشر نشده که نشان دهد یک سامانه مشخص هوش مصنوعی ــ مانند Maven یا یک مدل زبانی نظامی ــ مستقیماً حمله به مدرسه شجره طیبه را پیشنهاد کرده است. در گزارش‌های موجود، چنین پیوند مستقیمی هنوز در حد گمانه‌زنی باقی مانده و هیچ مقام رسمی نظامی نیز آن را تأیید نکرده است. به همین دلیل، بسیاری از پژوهشگران حقوق جنگ و متخصصان فناوری تأکید می‌کنند که تمایز میان «سامانه‌های تصمیم‌یار» و «سامانه‌های تصمیم‌گیر» باید با دقت حفظ شود. در سامانه‌های تصمیم‌یار، الگوریتم‌ها صرفاً داده‌ها را تحلیل و گزینه‌هایی را پیشنهاد می‌کنند و تصمیم نهایی در اختیار انسان باقی می‌ماند؛ اما منتقدان هشدار می‌دهند که در شرایط عملیاتی واقعی، سرعت بالای پردازش داده می‌تواند عملاً فضای بررسی مستقل انسانی را محدود کند. پژوهش‌های مؤسسه RAND درباره کاربرد هوش مصنوعی در عملیات نظامی نیز به همین نکته اشاره کرده و هشدار داده‌اند که فشار برای کاهش زمان تصمیم‌گیری در میدان نبرد ممکن است «اصطکاک‌های سنتی» ــ از بازبینی حقوقی تا ارزیابی مجدد اطلاعات ــ را کاهش دهد. (RAND Corporation، گزارش درباره AI در تصمیم‌گیری نظامی، ۲۰۲۱)

اما شاید مهم‌ترین شکاف امروز نه میان ارتش‌ها، بلکه میان دولت‌ها و شرکت‌های سازنده مدل‌های هوش مصنوعی شکل گرفته است. برخلاف صنایع تسلیحاتی سنتی که از دهه‌ها پیش در چارچوب قراردادهای مشخص با دولت‌ها کار می‌کردند، شرکت‌های سازنده مدل‌های زبانی و سامانه‌های هوش مصنوعی اغلب در فضایی میان فناوری مصرفی و زیرساخت‌های راهبردی فعالیت می‌کنند. همین وضعیت باعث شده است که با ورود این فناوری‌ها به حوزه امنیت ملی، پرسشی بنیادی مطرح شود: چه کسی قواعد استفاده از هوش مصنوعی در جنگ را تعیین می‌کند؟ دولت‌ها یا شرکت‌هایی که این سامانه‌ها را می‌سازند؟

نبرد بر سر نقش هومص در نبرد: مورد آنتروپیک

در روزهای پیش و پس از آغاز حمله به ایران، این تنش به شکلی کم‌سابقه در رابطه میان پنتاگون و شرکت Anthropic آشکار شد. رویترز گزارش داد که دولت آمریکا این شرکت را به‌عنوان یک «ریسک زنجیره تأمین» معرفی کرده است؛ اقدامی که پس از آن صورت گرفت که Anthropic حاضر نشد برخی از محدودیت‌های اخلاقی مدل‌هایش را برای کاربردهای نظامی بردارد. بر اساس این گزارش، مدیران این شرکت تأکید کرده‌اند که مدل‌هایشان نباید برای سلاح‌های کاملاً خودمختار یا نظارت گسترده داخلی مورد استفاده قرار گیرند. (گزارش رویترز، مارس ۲۰۲۶ درباره اختلاف Anthropic و پنتاگون)

در بیانیه رسمی Anthropic نیز اشاره شد که شرکت تلاش می‌کند کنترل‌های ایمنی و محدودیت‌های استفاده را در سطح مدل حفظ کند، حتی اگر مشتریان دولتی خواستار حذف این محدودیت‌ها باشند. این شرکت در اسناد سیاستی خود بارها هشدار داده است که مدل‌های زبانی بزرگ هنوز از نظر قابلیت اطمینان، شفافیت و پیش‌بینی‌پذیری به مرحله‌ای نرسیده‌اند که بتوان آن‌ها را در سامانه‌های کاملاً خودمختار نظامی به کار گرفت. (بیانیه‌های سیاستی Anthropic درباره Responsible AI)

در مقابل، برخی مقام‌های پنتاگون استدلال کرده‌اند که تصمیم‌گیری درباره کاربردهای نظامی نباید در اختیار شرکت‌های خصوصی قرار گیرد. از نگاه آن‌ها، وقتی یک فناوری به سطحی از اهمیت راهبردی می‌رسد، دولت باید اختیار کامل داشته باشد که از آن در چارچوب امنیت ملی استفاده کند.

در همین زمان، شرکت OpenAI نیز موضع خود را در قبال همکاری با دولت آمریکا روشن کرد. این شرکت در بیانیه‌ای اعلام کرد که با وزارت جنگ ایالات متحده همکاری‌هایی در حوزه هوش مصنوعی دارد، اما مدل‌هایش برای نظارت داخلی بر شهروندان آمریکایی یا هدایت مستقیم سلاح‌های خودمختار استفاده نخواهند شد. همچنین گفته شد که این سامانه‌ها به‌صورت خدمات ابری ارائه می‌شوند و در کاربردهای نظامی نیز انسان در حلقه تصمیم‌گیری باقی می‌ماند. (بیانیه رسمی OpenAI درباره همکاری با دولت آمریکا)

این دو رویکرد در واقع بازتاب دو فلسفه متفاوت در رابطه میان فناوری و دولت است. در یک سو، شرکت‌هایی قرار دارند که تلاش می‌کنند با محدودیت‌های قراردادی و فنی دامنه استفاده از مدل‌هایشان را کنترل کنند. در سوی دیگر، دولت‌هایی هستند که معتقدند در حوزه امنیت ملی، اختیار نهایی باید در دست حاکمیت باقی بماند. با گسترش کاربردهای نظامی هوش مصنوعی، این تنش احتمالاً در سال‌های آینده بیشتر نیز خواهد شد.

اسطخدوس مرگبار

در سوی دیگر این بحث، تجربه اسرائیل در جنگ غزه نیز به‌عنوان یک پیش‌زمینه مهم مطرح می‌شود. در آوریل ۲۰۲۴، رویترز گزارش داد که دولت آمریکا در حال بررسی گزارش‌هایی درباره استفاده اسرائیل از سامانه‌ای  Lavender برای شناسایی اهداف بمباران در غزه است. این گزارش‌ها نخست توسط رسانه‌های تحقیقی +972 Magazine و Local Call منتشر شدند و ادعا می‌کردند که این سامانه با استفاده از تحلیل داده‌های گسترده، افراد مظنون به عضویت در گروه‌های مسلح را شناسایی کرده و فهرستی از اهداف احتمالی تولید می‌کند. (گزارش رویترز، آوریل ۲۰۲۴ درباره سامانه Lavender)

بر اساس همان گزارش‌ها، سامانه Lavender می‌توانست داده‌های نظارتی گسترده را تحلیل کند و به هر فرد یک امتیاز احتمال عضویت در گروه‌های مسلح اختصاص دهد. منتقدان گفته‌اند که در برخی موارد نظارت انسانی بر این فرایند محدود بوده و تصمیم‌گیری‌ها با سرعت بالایی انجام می‌شده است. در مقابل، ارتش اسرائیل این ادعا را رد کرده و گفته است که هوش مصنوعی صرفاً به عنوان ابزار کمکی برای تحلیلگران اطلاعاتی استفاده می‌شود و هیچ سامانه‌ای به‌طور خودکار افراد را به‌عنوان هدف حمله انتخاب نمی‌کند. (واکنش رسمی ارتش اسرائیل به گزارش Lavender)

همین دوگانگی در روایت‌ها، پیچیدگی تحلیل جنگ الگوریتمی را نشان می‌دهد. از یک سو، گزارش‌های تحقیقی و شهادت برخی منابع نظامی از افزایش اتکای ارتش‌ها به سامانه‌های داده‌محور خبر می‌دهند. از سوی دیگر، مقام‌های رسمی اغلب تأکید می‌کنند که تصمیم نهایی همچنان انسانی است. برای ناظران مستقل، واقعیت احتمالاً جایی میان این دو قرار دارد.

آنچه تقریباً همه تحلیلگران بر آن توافق دارند این است که مسیر کلی جنگ معاصر ــ از میدان‌های نبرد اوکراین و غزه تا درگیری‌های جدید در خاورمیانه ــ به سوی اتکای فزاینده به سامانه‌های تحلیل داده و هدف‌سازی الگوریتمی حرکت می‌کند. این سامانه‌ها می‌توانند حجم عظیمی از اطلاعات میدان نبرد را در زمانی بسیار کوتاه پردازش کنند و اهداف بالقوه را سریع‌تر از هر زمان دیگری شناسایی کنند. نتیجه این روند، جنگی است که در آن سرعت پردازش داده و توانایی الگوریتم‌ها به اندازه قدرت آتش اهمیت پیدا کرده است؛ تحولی که بسیاری از نظریه‌پردازان نظامی آن را یکی از نشانه‌های آغاز عصر تازه‌ای در تاریخ جنگ می‌دانند.

هومص اجرا کننده آتش


اما تحول فقط به اتاق تحلیل و انتخاب هدف محدود نمانده است. هوش مصنوعی اکنون به حوزه‌ای هم وارد شده که زمانی قلمرو انحصاری خلبانان و اپراتورهای انسانی بود: هدایت، مانور و ناوبری. دارپا و نیروی هوایی آمریکا در آوریل ۲۰۲۴ اعلام کردند که در چارچوب برنامه Air Combat Evolution (ACE)، الگوریتم‌های هوش مصنوعی توانسته‌اند یک جنگنده آزمایشی X-62A VISTA را در نبرد هوایی نزدیک علیه یک F-16 انسان‌هدایت‌شونده کنترل کنند. اهمیت این آزمایش فقط نمادین نبود؛ نشان داد که هوش مصنوعی دیگر صرفاً ابزاری برای تحلیل داده‌های پیش از شلیک نیست، بلکه می‌تواند وارد لایه‌ای شود که در آن هواگرد باید در کسری از ثانیه تصمیم بگیرد، مانور بدهد، فاصله را تنظیم کند و واکنش نشان دهد.

در پهپادها نیز روند مشابهی سال‌هاست در جریان است. دارپا در برنامه‌های Fast Lightweight Autonomy (FLA) و بعدتر CODE نشان داده بود که پهپادها می‌توانند در محیط‌های فاقد GPS یا حتی در شرایط قطع ارتباطات، با اتکا به حسگرهای درونی، بینایی ماشین و الگوریتم‌های برنامه‌ریزی آن‌برد، با حداقل فرمان انسانی ناوبری و مأموریت خود را ادامه دهند. به بیان دیگر، هوش مصنوعی در جنگ مدرن فقط در تعیین این‌که «چه چیزی هدف است» مداخله نمی‌کند؛ increasingly در این‌که «هواگرد یا پهپاد چگونه در محیط خصمانه راه خود را پیدا کند، چگونه مانور بدهد و چگونه به هدف برسد» نیز نقش می‌گیرد. این همان نقطه‌ای است که بحث را از «هوش مصنوعی در زنجیره کشتن» به «هوش مصنوعی در هدایت خودِ ابزار کشتن» گسترش می‌دهد.

هوش مصنوعی بازیگر اصلی عصر پروپاگندا

این فقط نبرد موشک و داده نیست؛ نبرد روایت هم هست. در جنگ‌های قرن بیست‌ویکم، کنترل روایت عمومی گاه به اندازه کنترل آسمان یا میدان نبرد اهمیت پیدا می‌کند. در جریان جنگ ایران نیز موجی از ویدئوها، تصاویر و پیام‌های تولیدشده با هوش مصنوعی در شبکه‌های اجتماعی دست‌به‌دست شد؛ برخی از آن‌ها ادعای اصابت موشک به اهدافی خاص را مطرح می‌کردند و برخی دیگر پیروزی‌های اغراق‌آمیز یا تخریب‌های گسترده را نمایش می‌دادند. تحلیلگران رسانه‌ای می‌گویند در بسیاری از این موارد تشخیص اصالت تصویر برای کاربران عادی بسیار دشوار بوده است. همین موضوع باعث شده که پژوهشگران ارتباطات از مفهومی به نام «سود دروغگو» (Liar’s Dividend) سخن بگویند. این اصطلاح نخست توسط پژوهشگران دانشگاه هاروارد و مؤسسه MIT مطرح شد و به وضعیتی اشاره دارد که در آن امکان تولید دیپ‌فیک‌های بسیار واقع‌گرایانه باعث می‌شود حتی شواهد واقعی نیز قابل انکار شوند؛ یعنی یک بازیگر سیاسی می‌تواند به سادگی بگوید: «این ویدئو هم جعلی است.» (پژوهش Chesney & Citron درباره Liar’s Dividend، ۲۰۱۹)

در چنین فضایی، هوش مصنوعی تنها ابزار تولید محتوای جعلی نیست، بلکه ابزار ایجاد تردید سیستماتیک نیز هست. پژوهشگران امنیت اطلاعات هشدار می‌دهند که در محیطی که کاربران می‌دانند تصاویر و صداها می‌توانند به‌طور قانع‌کننده‌ای جعل شوند، اعتماد عمومی به شواهد دیداری و شنیداری کاهش می‌یابد. نتیجه این روند، آن چیزی است که برخی تحلیلگران «بحران معرفتی در زمان جنگ» می‌نامند؛ وضعیتی که در آن نه تنها دروغ‌ها سریع‌تر منتشر می‌شوند، بلکه حقیقت نیز دشوارتر اثبات می‌شود. (مطالعات MIT Media Lab درباره دیپ‌فیک و اعتماد عمومی)

این مشکل زمانی پیچیده‌تر می‌شود که دسترسی آزاد به اینترنت محدود باشد. در بسیاری از درگیری‌های اخیر ــ از اوکراین تا خاورمیانه ــ دولت‌ها یا بازیگران درگیر تلاش کرده‌اند جریان اطلاعات را کنترل کنند، سرعت اینترنت را کاهش دهند یا دسترسی به برخی پلتفرم‌ها را محدود کنند. در چنین شرایطی، امکان راستی‌آزمایی مستقل کاهش می‌یابد و فضای بیشتری برای انتشار روایت‌های متناقض فراهم می‌شود. به همین دلیل، روش‌هایی مانند ژئولوکیشن تصاویر، تحلیل داده‌های ماهواره‌ای و راستی‌آزمایی چندمنبعی که توسط گروه‌های روزنامه‌نگاری تحقیقاتی مانند Bellingcat توسعه یافته‌اند، به یکی از ابزارهای کلیدی برای بررسی ادعاهای جنگی تبدیل شده‌اند. (گزارش Bellingcat درباره روش‌های OSINT در بررسی جنگ‌ها)

در واقع، در عصر جنگ الگوریتمی، روزنامه‌نگاری مبتنی بر داده و شواهد باز دیگر صرفاً یک شیوه حرفه‌ای نیست؛ نوعی دفاع مدنی در برابر جنگ اطلاعاتی محسوب می‌شود. همان‌طور که پژوهشگران ارتباطات در دانشگاه آکسفورد اشاره کرده‌اند، درگیری‌های معاصر اغلب در دو سطح هم‌زمان رخ می‌دهند: در میدان فیزیکی و در میدان اطلاعاتی. در هر دو میدان نیز فناوری‌های دیجیتال نقشی تعیین‌کننده پیدا کرده‌اند. (Oxford Internet Institute، مطالعات درباره disinformation در جنگ)

نظم فروریخته حقوق و قوانین جنگ

از نظر حقوق بین‌الملل، اما جهان هنوز بسیار عقب‌تر از این تحولات حرکت می‌کند. رویترز در گزارشی در اوایل مارس نوشت که رئیس مذاکرات ژنو درباره «سامانه‌های سلاح خودمختار مرگبار» (LAWS) هشدار داده است که سرعت پیشرفت فناوری ممکن است از روند تدوین قواعد حقوقی پیشی بگیرد. این مذاکرات که در چارچوب کنوانسیون برخی سلاح‌های متعارف سازمان ملل (CCW) برگزار می‌شود، سال‌هاست درباره امکان تنظیم قواعد جهانی برای سلاح‌های خودمختار بحث می‌کند، اما هنوز به توافقی الزام‌آور نرسیده است. (گزارش رویترز درباره مذاکرات ژنو درباره LAWS، مارس ۲۰۲۶)

همان گزارش یادآوری می‌کند که اگرچه تقریباً همه دولت‌ها اصل پایبندی به حقوق بشردوستانه بین‌المللی را می‌پذیرند ــ اصولی مانند تمایز میان اهداف نظامی و غیرنظامی یا تناسب در حمله ــ هنوز استانداردهای مشخصی درباره نحوه استفاده از سامانه‌های هوش مصنوعی در میدان نبرد وجود ندارد. بسیاری از دولت‌ها نیز تمایل ندارند محدودیت‌هایی بپذیرند که ممکن است برتری نظامی آن‌ها را در آینده کاهش دهد.

نمونه‌ای از این اختلاف در نشست REAIM (Responsible AI in the Military Domain) دیده شد؛ ابتکاری که با هدف تدوین اصول مسئولانه برای استفاده از هوش مصنوعی در حوزه نظامی شکل گرفت. در یکی از نشست‌های این ابتکار، تنها ۳۵ کشور از میان ۸۵ کشور شرکت‌کننده بیانیه‌ای غیرالزام‌آور را امضا کردند که بر اصولی مانند حفظ مسئولیت انسانی، شفافیت در زنجیره فرماندهی، ارزیابی ریسک و آموزش نیروهای نظامی تأکید می‌کرد. با این حال، برخی قدرت‌های بزرگ از جمله ایالات متحده و چین از امضای این متن خودداری کردند. (گزارش رویترز درباره نشست REAIM، ۲۰۲۴)

این شکاف خطرناک است، زیرا در همان زمان رقابت تسلیحاتی در حوزه هوش مصنوعی با سرعت در حال گسترش است. ارتش‌های بزرگ جهان میلیاردها دلار در سامانه‌های تحلیل داده، پهپادهای خودکار، شبکه‌های فرماندهی مبتنی بر هوش مصنوعی و سامانه‌های جنگ الکترونیک سرمایه‌گذاری می‌کنند. بسیاری از تحلیلگران امنیتی معتقدند که این رقابت می‌تواند به نوعی «مسابقه تسلیحاتی الگوریتمی» منجر شود؛ وضعیتی که در آن کشورها برای عقب نماندن از رقبای خود ناچارند فناوری‌های مشابهی توسعه دهند.

آینده چگونه خواهد بود؟

با این حال، آینده جنگ احتمالاً شبیه سناریوی ساده فیلم‌های علمی‌تخیلی نخواهد بود.

 بعید است ناگهان ارتش‌هایی متشکل از «ربات‌های قاتل کاملاً مستقل» جایگزین نیروهای انسانی شوند. سناریوی محتمل‌تر چیزی است که برخی پژوهشگران آن را «اتوماسیون لایه‌لایه» می‌نامند. در چنین ساختاری، هوش مصنوعی در مراحل مختلف فرایند نظامی به کار گرفته می‌شود: مدل‌هایی که داده‌ها را خلاصه می‌کنند، سامانه‌هایی که اهداف احتمالی را پیشنهاد می‌دهند، ابزارهایی که طرح‌های عملیاتی را شبیه‌سازی می‌کنند، الگوریتم‌هایی که خسارت احتمالی را برآورد می‌کنند و شبکه‌هایی که فرماندهی و کنترل عملیات را مدیریت می‌کنند. (مطالعات RAND درباره آینده AI در عملیات نظامی)

در این سناریو، خطر اصلی نه ظهور ناگهانی یک ماشین خارج از کنترل، بلکه عادی شدن واگذاری تدریجی قضاوت انسانی به سامانه‌های الگوریتمی است. هر مرحله از این واگذاری ممکن است کوچک و منطقی به نظر برسد: یک الگوریتم برای تحلیل تصویر، یک سامانه برای رتبه‌بندی اهداف، یک ابزار برای پیشنهاد طرح حمله. اما در مجموع، این تصمیم‌های کوچک می‌توانند ساختار تصمیم‌گیری نظامی را به‌طور اساسی تغییر دهند.

به همین دلیل، بسیاری از پژوهشگران حقوقی و نهادهای بشردوستانه بر مفهوم «کنترل انسانی معنادار» (Meaningful Human Control) تأکید می‌کنند. این مفهوم به این معناست که انسان باید نه‌تنها به‌صورت نمادین، بلکه به‌طور واقعی و آگاهانه در تصمیم‌های مرگبار حضور داشته باشد و بتواند داده‌ها، فرضیات و پیامدهای یک حمله را بررسی کند. بدون چنین کنترلی، مسئولیت‌پذیری حقوقی و اخلاقی در میدان نبرد به‌سادگی فرو می‌پاشد. (کمیته بین‌المللی صلیب سرخ درباره Meaningful Human Control)

جنگ ایران هنوز پایان نیافته است، اما یک نکته از هم‌اکنون روشن به نظر می‌رسد: میدان نبرد آینده فقط در آسمان‌ها و روی نقشه‌های نظامی شکل نمی‌گیرد. این میدان در پایگاه‌های داده، مدل‌های زبانی، سامانه‌های بینایی ماشین و قراردادهای محرمانه میان دولت‌ها و شرکت‌های فناوری نیز ساخته می‌شود. موشک تاماهاوک هنوز همان سلاح مرگبار قدیمی است، اما پیش از آنکه شلیک شود، این الگوریتم‌ها هستند که می‌بینند، داده‌ها را دسته‌بندی می‌کنند، اهداف را اولویت‌بندی می‌کنند و زمان را از انسان می‌گیرند.

شاید مهمترین نکته این داستان باشد. ما نباید انگشت اتهام را به سوی ابزار نشانه برویم تا تصمیم گیران در پشت آن پنهان بمانند. همین هوش مصنوعی امروز در حال استفاده برای کشف داروهای جدید، توسعه علمی و فناوری و نجات مردم و زمین است. ما هستیم که انتخاب می کنیم از این توان عظیم کجا استفاده کنیم. همان طور که فناوری که امروز برای کشتن مردم و نابودی زمین در قالب موشک استفاده می شود می تواند ما را به فضا ببرد.

به همین دلیل، پرسش اصلی این جنگ شاید نه درباره قدرت هوش مصنوعی، بلکه درباره مسئولیت انسانی باشد.

وقتی سرعت تصمیم‌گیری ماشین از ظرفیت قضاوت انسانی جلو می‌زند، چه کسی پاسخ‌گوی پیامدهای آن خواهد بود؟ اگر پاسخ این پرسش روشن نباشد، آنچه امروز «جعبه‌سیاه الگوریتمی» نامیده می‌شود دیگر فقط یک مشکل فنی نخواهد بود؛ بلکه ممکن است به یکی از پیچیده‌ترین و خطرناک‌ترین مسائل سیاسی عصر ما تبدیل شود.

دیدگاهتان را بنویسید

*

این سایت از اکیسمت برای کاهش جفنگ استفاده می‌کند. درباره چگونگی پردازش داده‌های دیدگاه خود بیشتر بدانید.