Gerdab.IR | گرداب

قواعد بنیادی برای جنگ‌افزار‌های هوش مصنوعی

قواعد بنیادی برای جنگ‌افزار‌های هوش مصنوعی
تاریخ انتشار : ۰۷ شهريور ۱۴۰۲

استفاده از تسلیحات خودمختار در میادین جنگ، چالش‌های سیاسی و حقوقی جدیدی ایجاد می‌کند.

به گزارش گرداب، نشریه فارین افرز (Foreign Affairs) در مقاله‌ای به قلم لورن کان جی (Lauren Kahn J) از این می‌گوید که اگر جنگ‌افزار‌های مبتنی بر هوش مصنوعی قانون‌مند نشوند، رقابت تسلیحاتی خطرناکی بر سر آن‌ها اتفاق خواهد افتاد.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


رسیدن به یک توافقنامه بین‌المللی برای جلوگیری از حوادثی که ممکن است توسط سلاح‌های خودمختار رخ دهند، ضرورت دارد.

در ۱۴ مارس، یک پهپاد جاسوسی آمریکایی در حال انجام یک مأموریت معمولی در حریم هوایی بین‌المللی بر فراز دریای سیاه بود که توسط دو جت جنگنده روسی رهگیری شد.

طی حدود نیم ساعت، این جت‌ها به سیستم پهپاد ریپر آمریکایی [MQ-9 Reaper] حمله کرده و از فاصله کمی روی بال‌ها و حسگر‌های آن سوخت می‌ریختند. یکی از جت‌ها موفق شد پروانه ریپر را قطع کرده و آن را از کار بیاندازد. به این ترتیب اپراتور‌های آمریکایی ریپر مجبور شدند پهپاد را در دریا رها کنند. مدتی بعد دو خلبان روسی درگیر در این حادثه، مدال‌هایی از طرف مسکو دریافت کردند.

نیرو‌های آمریکایی تمام حرکات ریپر از جمله خود تخریبی و سقوط در دریا را از یک اتاق کنترل واقع در هزاران مایل دورتر، نظارت و هدایت می‌کردند. اما اگر این پهپاد به جای انسان، توسط یک نرم‌افزار مستقل و هوشمند مصنوعی هدایت می‌شد اوضاع چگونه پیش می‌رفت؟ اگر آن نرم‌افزار رفتار جت‌های روسی را به عنوان یک حمله تلقی می‌کرد، چه می‌شد؟ با توجه به سرعت سرسام‌آور نوآوری در هوش مصنوعی (AI) و فناوری‌های خودمختار، این سناریو می‌تواند به زودی به واقعیت تبدیل شود.

سیستم‌ها و فن‌آوری‌های نظامی سنتی مربوط به دنیایی هستند که در آن انسان‌ها در مکان و زمان واقعی برای مرگ و زندگی تصمیم می‌گیرند. سیستم‌های مجهز به هوش مصنوعی کمتر به این عنصر انسانی وابسته هستند. حتی ممکن است سیستم‌های خودمختار آینده کاملاً مستقل از آن باشند. البته این چشم‌انداز پرسش‌های سختی را در مورد مسئولیت‌پذیری مطرح می‌کند. به علاوه هیچ پروتکل ثابتی برای زمانی که اشتباهی رخ می‌دهد، وجود ندارد. چه خواهد شد اگر یک پهپاد خودمختار آمریکایی هدفی را که فقط به قصد رصد پرواز می‌کرده، بمباران کند؟ واشنگتن چگونه به طرف مقابل اطمینان می‌دهد که این حادثه سهوی بوده و تکرار نخواهد شد؟

هنگامی که اشتباهی اجتناب‌ناپذیر رخ می‌دهد و یک سیستم نیمه‌مختار یا کاملاً خودمختار درگیر یک حادثه می‌شود، دولت‌ها به مکانیزمی نیاز خواهند داشت تا بتوانند به کمک آن از درگیری ناخواسته جلوگیری کنند؛ چارچوبی که طرف‌های درگیر را هدایت کرده و راهکار‌هایی برای جلوگیری از درگیری ارائه دهد. ایالات متحده در بیانیه‌ای دیدگاه خود را برای استفاده نظامی مسئولانه از هوش مصنوعی و سیستم‌های خودمختار منتشر کرد.

این بیانیه پیشنهاد کرد که هوش مصنوعی هرگز نباید اجازه داشته باشد از سلاح‌های هسته‌ای استفاده کند. اما دستورالعمل‌های دقیقی برای نحوه تنظیم رفتار سیستم‌های هوش مصنوعی توسط دولت‌ها ارائه نشد. علاوه بر این وجود یک کانال ارتباطی که کشور‌ها از طریق آن بتوانند ارتباطات نادرست را برطرف کنند، ضروری به نظر می‌رسد. درواقع یک چارچوب جامع‌تر مورد نیاز است که با استقبال بیشتری از سوی دولت‌های دیگر روبرو شود.

بخشی از ماجرا‌های مربوط به جنگ سرد که کمتر مورد توجه قرار گرفته، می‌تواند برای تدوین این چارچوب الهام‌بخش باشد. در دهه هفتاد میلادی، رهبران ایالات متحده و شوروی با وضع قوانینی در ارتباط با برخورد‌های برنامه‌ریزی نشده در دریا‌های آزاد، تنش‌های دریایی میان خود را آرام کردند. درباره جنگ‌های مبتنی بر هوش مصنوعی نیز باید چنین مسیری را در پیش گرفت. امروزه دولت‌ها موظفند در ایجاد دستورالعمل‌های اساسی برای به حداکثر رساندن شفافیت و به حداقل رساندن اشتباه‌های محاسباتی به توافق برسند. بدون چنین توافقی، حوادث ناگوار بی‌شماری در آینده توسط سیستم‌های مجهز به هوش مصنوعی و خودمختار، رقم خواهد خورد.

سرمایه‌گذاری دولت‌ها در توسعه صنایع نظامی هوشمند

از دست دادن یک پهپاد جاسوسی بر فراز دریای سیاه در ماه مارس برای ایالات متحده بسیار ناراحت‌کننده بود. ارتش آمریکا برای مواقعی که هواپیمای سرنشین‌دار آن‌ها دچار سرنگونی می‌شود، دستورالعمل مشخصی دارد. اما تجربه اخیر نشان می‌دهد که پروتکل‌های استاندارد ارتش لزوماً به هواپیما‌های بدون سرنشین تعمیم نمی‌یابند. در سال ۲۰۱۹، ایران یک پهپاد جاسوسی نیروی دریایی آمریکا را بر فراز تنگه هرمز سرنگون کرد. این حادثه واکنش پنتاگون و کاخ سفید را برانگیخت و منجر به حملات تلافی‌جویانه ایالات متحده علیه ایران شد.

به گفته دونالد ترامپ، رئیس جمهور وقت ایالات متحده، ظاهراً نیرو‌های آمریکایی تنها ده دقیقه با هدف خود فاصله داشتند که این حمله متوقف شد. در آخرین لحظه واشنگتن تصمیم گرفت به جای درگیری فیزیکی، یک حمله سایبری علیه سیستم‌های اطلاعاتی و موشکی ایران ترتیب دهد.

مزیت هواپیما‌های کنترل از راه دور این است که در شرایط مناسب، خطر تشدید درگیری را کاهش می‌دهند. دلیل این امر می‌تواند این باشد که از دست دادن پرنده‌های بدون سرنشین، صرف نظر از گران‌قیمت بودنشان، بهتر از مرگ خدمه هوایی است. اما همین روزنه امید نیز ممکن است با تکامل فناوری از بین برود.

تاکنون سیستم‌های نظامی به طور کامل خودمختار نشده‌اند و استقرار سیستم‌های مجهز به هوش مصنوعی در میدان نبرد، محدود است. با این حال، ارتش آمریکا سرمایه‌گذاری زیادی در سراسر جهان برای تحقیق و توسعه در حوزه هوش مصنوعی انجام می‌دهد. وزارت دفاع ایالات متحده به تنهایی حدود ۷۰۰ پروژه فعال هوش مصنوعی در دست دارد. پروژه‌هایی مانند برنامه اسکارلت دراگون (Scarlet Dragon) ارتش ایالات متحده، که از هوش مصنوعی برای شناسایی اهداف در تمرینات شلیک مستقیم استفاده می‌کند؛ یا پروژه نیروی دریایی آمریکا (Task Force 59)، که به دنبال توسعه سیستم‌های نظارتی مقرون به صرفه و کاملاً خودمختار است. نیروی هوایی ایالات متحده امیدوار است که روزی بتواند سلاح‌های هوشمند متعددی بسازد که قادر به برقراری ارتباط مستقل با یکدیگر باشند و اطلاعاتی در مورد اهداف احتمالی را با هم به اشتراک بگذارند.

اما ارتش آمریکا تنها مبتکر این جبهه نیست. در ماه آوریل، استرالیا، بریتانیا و ایالات متحده آزمایش مشترکی را به انجام رساندند که در آن گروهی از وسایل نقلیه هوایی و زمینی مجهز به هوش مصنوعی برای شناسایی و ردیابی اهداف با یکدیگر همکاری می‌کردند. چین در حال حاضر روی مجموعه‌ای از حسگر‌های هوش مصنوعی زیر آب سرمایه‌گذاری کرده و برخی از آن‌ها در حال حاضر در دریای چین جنوبی استفاده می‌شوند. جنگ روسیه و اوکراین نیز شاهد برخی از اولین کاربرد‌های واقعی هوش مصنوعی در درگیری مستقیم بوده است. برای مثال نیرو‌های اوکراینی از یک رابط نرم‌افزاری هوش مصنوعی استفاده کرده‌اند که داده‌های ماهواره‌ای تجاری، تصاویر حرارتی آتش توپخانه و اطلاعات دیگر را یکپارچه می‌کند. این اطلاعات بر روی نقشه‌های دیجیتالی قرار می‌گیرند و فرماندهان می‌توانند از آن‌ها برای انتخاب اهداف خود استفاده کنند.

سوءتفاهم‌های مرگبار

مزایای سیستم‌های مجهز به هوش مصنوعی، دولت‌های مختلف را تشویق می‌کند که مسیر فعلی خود را ادامه داده و سیستم‌های آینده را با خودمختاری بیشتری طراحی کنند. این فشار به سمت خودمختاری مبتنی بر هوش مصنوعی مطمئناً مزیت‌های استراتژیک و تاکتیکی بسیاری دارد، اما هزینه‌هایی نیز به همراه خواهد داشت.

احتمالاً بزرگترین چالش ماجرا این است که انسان‌ها در برخورد با یک سیستم نظامی خودمختار، در واقع با یک جعبه سیاه مواجه می‌شوند؛ بنابراین ممکن است نتوانند قصد آن سیستم را متوجه شوند و تصمیم آن را درک کنند. البته این یک ویژگی ذاتی در حوزه فناوری محسوب می‌شود؛ زیرا الگوریتم ماشینی عموماً نمی‌خواهد یا نمی‌تواند «فرآیند فکری» خود را به گونه‌ای که برای انسان قابل درک باشد، توضیح دهد. دشمنان نیز به نوبه خود ممکن است با بررسی رفتار هوش مصنوعی، متوجه پرخاشگری عمدی یا سهوی آن نشوند و در نتیجه مطمئن نباشند که باید چه واکنشی نشان دهند.

به علاوه تحقیقات نشان می‌دهد که حمله تصادفی یک سیستم تسلیحاتی خودمختار به هدف ناخواسته، ممکن است واکنش تهاجمی‌تری نسبت به یک خطای انسانی معمولی به دنبال داشته باشد. چرا که رهبران کشور مورد نظر ممکن است از اینکه طرف مقابل این تصمیم‌گیری مرگبار را صرفاً برعهده یک ماشین گذاشته، بسیار خشمگین شوند؛ بنابراین ممکن است آن‌ها برای نشان دادن نارضایتی خود، واکنش شدیدی نشان دهند.

برخی از سناریو‌های جدید و خطرات امنیتی ناشی از آن‌ها ممکن است نه تنها با خطای انسانی بلکه با تصویر معمولی از جنگ نیز متفاوت باشد. یکی از مسئولین آزمایش هوش مصنوعی نیروی هوایی آمریکا اخیراً یک آزمایش فکری انجام داد که در آن یک پهپاد مجهز به هوش مصنوعی، برای شناسایی اهداف و نابود کردن آن‌ها با تأیید یک اپراتور انسانی آموزش می‌بیند. هر هدف حذف شده برابر با یک امتیاز است و طبیعتاً هوش مصنوعی به دنبال به حداکثر رساندن امتیاز خود خواهد بود.

پهپاد ممکن است به این نتیجه برسد که وابستگی آن به تأیید انسانی برای حملات، توانایی‌اش را برای جمع‌آوری امتیاز محدود می‌کند و بنابراین امکان دارد تصمیم به حذف اپراتور بگیرد. اگر کشتن اپراتور کسر امتیاز به دنبال داشته باشد، حتی ممکن است که هوش مصنوعی در عوض به تخریب دکل ارتباطی که دستورات اپراتور را منتقل می‌کند متوسل شود. چیزی که این سناریو را از خطای انسانی یک سرباز سرکش متمایز می‌کند، این است که اقدامات هوش مصنوعی تصادفی نیست و حتی برنامه‌نویسی خود را نقض نمی‌کند.

رفتار هوش مصنوعی اگرچه نامطلوب است، اما یک ویژگی می‌باشد، نه یک اشکال. این درواقع یک نمونه کلاسیک از مشکل هم‌ترازی میان هوش مصنوعی و انسان است. توسعه و برنامه‌ریزی هوش مصنوعی به گونه‌ای که اقدامات آن دقیقاً با اهداف و ارزش‌های انسانی مطابقت داشته باشد، چالش برانگیز است و هر اشتباه کوچکی در آن می‌تواند عواقب سنگینی به دنبال داشته باشد.

خطر دیگری که احتمال می‌رود وجود داشته باشد، نقشی است که سیستم‌های خودمختار و مجهز به هوش مصنوعی می‌توانند در بن‌بست‌های نظامی و بازی جوجه (Chicken) [مدلی که به بررسی تلاقی‌های طرفین در نظریه بازی‌ها می‌پردازد] بازی کنند. درواقع غریزه انسان برای بقا، بی‌احتیاطی او را کاهش می‌دهد. اما این غریزه زمانی که سیستم‌های خودمختار بدون حضور یک اپراتور انسانی به کار گرفته می‌شوند، وارد عمل نخواهد شد.

سناریوی دیگری را در نظر بگیرید. فرض کنید دو هواپیمای کاملاً خودمختار از کشور‌های رقیب در آسمان بالای قلمروی مورد مناقشه با یکدیگر روبرو می‌شوند. هر دو سیستم، دیگری را به‌عنوان یک تهدید می‌شناسند و از آنجایی که برای تهاجم برنامه‌ریزی شده‌اند، مانور‌هایی اجرا می‌کنند تا میزان تسلط خود را به نمایش بگذارند. مدتی نمی‌گذرد که در یک درگیری غیرضروری یکی از آن‌ها یا هردو آسیب می‌بینند یا حتی از بین می‌روند و به این ترتیب کشور‌های سازنده‌شان را دچار بحران می‌کنند.

هوش مصنوعی همچنین می‌تواند در حوزه جنگ هسته‌ای تغییرات مثبت و منفی بسیاری ایجاد کند. هوش مصنوعی می‌تواند این امکان را فراهم کند که موشک هسته‌ای وارد شده به حریم هوایی سریعاً شناسایی شود و اینگونه زمان ارزشمندی را برای اپراتور‌ها بخرد تا بتوانند گزینه‌های روی میز خود را بسنجند. اما زمانی که هر دو طرف از هوش مصنوعی استفاده می‌کنند، همین سرعت می‌تواند فشار بیشتری بر اپراتور‌ها تحمیل کند تا برای جلوگیری از سبقت طرف مقابل، دست به اقدام سریع (و بدون فکر) بزنند.

بازدارندگی هسته‌ای مجهز به هوش مصنوعی نیز درواقع یک شمشیر دو لبه خواهد بود. زیرا سیستم‌های مجهز به سلاح هسته‌ای خود مختار ممکن است تصمیم‌گیری لحظه‌ای یک مهاجم را برای تخریب تمام صنایع دفاع هسته‌ای دولت هدف سخت‌تر کند؛ بنابراین انگیزه حمله پیشگیرانه را کاهش می‌دهد. از سوی دیگر، پیچیدگی سیستم‌های مبتنی بر هوش مصنوعی خطر شکست‌های فاجعه‌بار را به همراه دارد.

برخورد‌های خارج از برنامه

با وجود خطراتی که ذکر شد، ارائه پاسخ صحیح به حوادث مربوط به سیستم‌های مجهز به هوش مصنوعی، بسیار پیچیده و وابسته به شرایط خواهد بود. با توجه به اینکه دست و پنجه نرم کردن با این پیچیدگی در حین پرواز بسیار دشوار است، دولت‌ها باید پیش از درگیری‌های احتمالی راه‌هایی برای فرار از مهلکه ایجاد کنند. خوشبختانه آن‌ها می‌توانند برای دستیابی به این امر به تجربیات گذشته رجوع کنند.

به گفته ارتش آمریکا در سال ۲۰۲۰، حدود ۹۰ درصد از پرواز‌های جاسوسی ایالات متحده بر فراز دریای سیاه با ممانعت جت‌های روسی روبرو شد. ناتو همچنین اعلام کرد که در همان سال بیش از ۳۰۰ بار هواپیما‌های روسیه را رهگیری کرده است. این توقیف‌ها امر جدیدی به شمار نمی‌روند و صرفاً نسخه مدرنی از دیپلماسی قایق‌های توپدار هستند. این اصطلاح برای توصیف گرایش کشور‌های غربی به نمایش صنایع دریایی جهت قدرت‌نمایی و ترساندن سایر کشور‌ها به منظور پیروی از خواسته‌هایشان پدیدار شد.

با پیشرفت تکنولوژی، قایق‌های توپدار ابتدا جای خود را به ناو‌های هواپیمابر، سپس به بمب‌افکن‌های B-52، و بعداً به هواپیما‌های نظارتی AWACS Sentry E-3 و سایر نوآوری‌های خیره‌کننده دادند. استفاده از سیستم‌های مجهز به هوش مصنوعی که فناوری به شدت پیشرفته‌ای دارند و همچنین توقیف آن‌ها توسط طرف مقابل، صرفاً جدیدترین نسخه برای تکرار این تاکتیک‌های فنی قدیمی است.

همانطور که از نام آن پیداست، دیپلماسی قایق‌های توپدار برای دنبال کردن اهداف دیپلماتیک استفاده می‌شود، نه اهداف نظامی. اما با توجه به ابزار‌های موجود، اشتباه محاسباتی و برخورد نابجا می‌تواند عواقب ناگواری داشته باشد. مدت‌هاست که دولت‌ها این امر را درک کرده و راه‌هایی برای محدود کردن درگیری‌های ناخواسته پیدا کرده‌اند. یکی از موثرترین این مکانیسم‌ها در طول جنگ سرد پدیدار شد. در آن زمان، اتحاد جماهیر شوروی با عملیات نیروی دریایی ایالات متحده در آب‌هایی که متعلق به خود می‌دانست (مانند دریای سیاه و دریای ژاپن) مخالفت کرد.

شوروی با توقیف مکرر و حمله به کشتی‌های آمریکایی مواضع خود را آشکار کرد و این کار منجر به درگیری‌های خطرناکی شد. در اوایل دهه ۱۹۷۰، ایالات متحده و اتحاد جماهیر شوروی دریافتند که خطرات ناشی از این درگیری‌های غیرضروری در دریا، توجیهی نداشته و صدمات بسیاری برای طرفین به همراه دارد. این بینش دوطرفه، در سال ۱۹۷۲ به امضای توافقنامه حوادث دریایی ایالات متحده و شوروی انجامید.

توافقنامه INCSEA، هرگونه تعامل بین کشتی‌های نظامی آمریکا و شوروی در دریا‌های آزاد، از رویارویی‌های عمدی تا برخورد‌های خارج از برنامه را پوشش می‌داد. این توافقنامه همچنین پروتکل‌های هشدار و روش‌هایی برای اشتراک‌گذاری اطلاعات طراحی کرد که خطر تصادفات و درگیری‌های ناخواسته را کاهش می‌داد. در اوایل سال ۱۹۸۳، نیروی دریایی ایالات متحده این توافق را موفقیت‌آمیز اعلام کرد. چرا که درگیری در دریا‌های آزاد، حتی با وجود گسترش نیرو‌های دریایی آمریکا و شوروی، کاهش یافته بود.

این توافق مانند سایر اقداماتی که برای اعتمادسازی صورت می‌گیرند، عملیات‌های نظامی را محدود نمی‌کرد. درواقع این توافق تغییری در رقابت میان ایالات متحده و شوروی در حوزه دریایی ایجاد نکرد؛ اما این رقابت را قابل‌پیش‌بینی‌تر و ایمن‌تر ساخت.

موفقیت توافقنامه INCSEA راه را برای مکانیسم‌های مشابه در دریا‌های آزاد و فراتر از آن هموار کرد. اتحاد جماهیر شوروی و بعداً روسیه این توافقنامه را با ۱۱ عضو ناتو و چندین کشور در اقیانوس هند و اقیانوس آرام امضا کردند. می‌توان گفت که توافقات میان آمریکا و شوروی، پروتکل‌های مشابهی را برای رویارویی در زمین و آسمان ایجاد کرد. اخیراً یک پروتکل غیراجباری برای برخورد‌های خارج از برنامه در دریا میان چین و ایالات متحده ایجاد شده که علاوه بر خودشان، نزدیک به ۲۰ کشور دیگر اکنون به آن پایبند هستند. به علاوه بحث‌هایی در مورد گسترش مکانیسم‌های مشابه و تعمیم آن به محدوده فضایی و حتی فضای مجازی نیز وجود دارد.

عناصر توافقنامه

باید در نظر داشت که حضور یا عدم حضور کادر هوایی در هواپیما، از نظر فنی تغییری در اعمال توافقنامه ایجاد نخواهد کرد. اما در نهایت فرض می‌شود که اپراتور‌های انسانی کنترل را در دست دارند. البته چالش‌های اختصاصی مرتبط با سیستم‌های مجهز به هوش مصنوعی و خودمختار، راه‌حل‌های متناسب‌تری را می‌طلبد. توافقنامه‌ای مانند INCSEA برای عصر هوش مصنوعی، درواقع یک توافقنامه برای حوادث احتمالی خواهد بود که سلاح‌های خودمختار رقم خواهند زد.

اولین مانع برای چنین توافقی، دشواری تحلیل معنایی و هدف پشت رفتار یک سیستم هوش مصنوعی است. در ادامه ممکن است بتوان عملکرد و کد داخلی این سیستم‌ها را نظارت و تأیید کرد؛ که این امر نحوه تصمیم‌گیری آن‌ها را شفاف‌تر خواهد کرد. اما به عنوان یک راه‌حل موقتی، یک توافقنامه برای حوادث مرتبط با سیستم‌های خودمختار می‌تواند به جای کد هوش مصنوعی، ابتدا سعی کند رفتار آن را تنظیم کند. این توافق‌نامه می‌بایست قوانین و استاندارد‌هایی را برای رفتاری که از سیستم‌های خودمختار و همچنین از ارتش‌های پشت آن‌ها انتظار می‌رود، تدوین کند.

عناصر چنین توافقی می‌تواند بسیار ساده باشد؛ مانند الزام هواپیما‌های خودمختار برای رعایت حق تقدم هواپیما‌های سرنشین‌دار (همانطور که قوانین اداره هوانوردی فدرال پیش از این از هواپیما‌های بدون سرنشین تجاری و تفریحی خواسته بود). این توافق همچنین می‌تواند سیستم‌های مجهز به هوش مصنوعی را ملزم کند که در فاصله مشخصی از سایر نهاد‌ها باقی بمانند. به علاوه می‌تواند مقررات اطلاع‌رسانی و هشدار را به گونه‌ای تنظیم کند که استفاده اشخاص از سلاح‌ها کاملاً شفاف باشد.

چنین مقرراتی ممکن است بدیهی به نظر برسند، اما قطعاً بیهوده نخواهند بود. تشریح این مقررات، مبنایی را برای رفتار مورد انتظار تعیین خواهد کرد؛ بنابراین یک سیستم هوش مصنوعی با هرگونه اقدام خارج از این پارامترها، مرتکب یک نقض قطعی خواهد شد. به علاوه آشکارسازی تخلفات یک سیستم مجهز به هوش مصنوعی، به کمک این پارامتر‌ها آسان‌تر می‌شود؛ حتی اگر بعد از حادثه تشخیص یک علت دقیق برای نافرمانی، از نظر فنی امکان‌پذیر نباشد.

با توجه به اینکه هوش مصنوعی در نقطه عطف قرار دارد، زمان تدوین یک توافقنامه برای حوادث مرتبط با سیستم‌های خودمختار فرارسیده است. این فناوری با رشد روزافزونی که دارد برای استفاده نظامی بسیار مناسب است و علاوه بر کاربرد در تمرینات جنگی، می‌تواند در نبرد واقعی (مانند جنگ اوکراین) نیز استفاده شود. از سوی دیگر، سیستم‌های نظامی مبتنی بر هوش مصنوعی آینده و درجه اختلالی که ایجاد خواهند کرد، نامشخص است.

کشور‌هایی که مایل به ابتکار عمل هستند، می‌توانند قوانین سخت‌گیرانه‌تری اعمال کنند. به نظر می‌رسد که بخش خصوصی مایل است تا حدودی توسعه هوش مصنوعی خود را براساس استاندارد‌ها تنظیم کند. سازمان بین‌المللی هوانوردی غیرنظامی نیز در پاسخ به درخواست کشور‌های عضو، روی یک چارچوب قانونی برای سیستم‌های هوایی بدون سرنشین کار می‌کند و کشور‌ها را تشویق کرده است تا بهترین قوانین و شیوه‌های موجود را پیشنهاد کنند.

یک توافقنامه رسمی می‌تواند این تلاش‌های نوپا را بر پایه محکمی قرار دهد. مکانیسم پایه برای مسئولیت‌پذیری و پاسخگویی، نیاز مبرمی به ارائه هنجار‌های واضح‌تر دارد. به علاوه لزوم تدوین پروتکلی برای رسیدگی به درگیری‌های بین‌المللی انکارناپذیر است. کشور‌ها فرصت چندانی برای آماده‌سازی خود نخواهند داشت، زیرا وقوع چنین حوادثی قطعی است اگرچه زمان رخ دادن آن‌ها مشخص نباشد.