استفاده از تسلیحات خودمختار در میادین جنگ، چالشهای سیاسی و حقوقی جدیدی ایجاد میکند.
به گزارش گرداب، نشریه فارین افرز (Foreign Affairs) در مقالهای به قلم لورن کان جی (Lauren Kahn J) از این میگوید که اگر جنگافزارهای مبتنی بر هوش مصنوعی قانونمند نشوند، رقابت تسلیحاتی خطرناکی بر سر آنها اتفاق خواهد افتاد.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
رسیدن به یک توافقنامه بینالمللی برای جلوگیری از حوادثی که ممکن است توسط سلاحهای خودمختار رخ دهند، ضرورت دارد.
در ۱۴ مارس، یک پهپاد جاسوسی آمریکایی در حال انجام یک مأموریت معمولی در حریم هوایی بینالمللی بر فراز دریای سیاه بود که توسط دو جت جنگنده روسی رهگیری شد.
طی حدود نیم ساعت، این جتها به سیستم پهپاد ریپر آمریکایی [MQ-9 Reaper] حمله کرده و از فاصله کمی روی بالها و حسگرهای آن سوخت میریختند. یکی از جتها موفق شد پروانه ریپر را قطع کرده و آن را از کار بیاندازد. به این ترتیب اپراتورهای آمریکایی ریپر مجبور شدند پهپاد را در دریا رها کنند. مدتی بعد دو خلبان روسی درگیر در این حادثه، مدالهایی از طرف مسکو دریافت کردند.
نیروهای آمریکایی تمام حرکات ریپر از جمله خود تخریبی و سقوط در دریا را از یک اتاق کنترل واقع در هزاران مایل دورتر، نظارت و هدایت میکردند. اما اگر این پهپاد به جای انسان، توسط یک نرمافزار مستقل و هوشمند مصنوعی هدایت میشد اوضاع چگونه پیش میرفت؟ اگر آن نرمافزار رفتار جتهای روسی را به عنوان یک حمله تلقی میکرد، چه میشد؟ با توجه به سرعت سرسامآور نوآوری در هوش مصنوعی (AI) و فناوریهای خودمختار، این سناریو میتواند به زودی به واقعیت تبدیل شود.
سیستمها و فنآوریهای نظامی سنتی مربوط به دنیایی هستند که در آن انسانها در مکان و زمان واقعی برای مرگ و زندگی تصمیم میگیرند. سیستمهای مجهز به هوش مصنوعی کمتر به این عنصر انسانی وابسته هستند. حتی ممکن است سیستمهای خودمختار آینده کاملاً مستقل از آن باشند. البته این چشمانداز پرسشهای سختی را در مورد مسئولیتپذیری مطرح میکند. به علاوه هیچ پروتکل ثابتی برای زمانی که اشتباهی رخ میدهد، وجود ندارد. چه خواهد شد اگر یک پهپاد خودمختار آمریکایی هدفی را که فقط به قصد رصد پرواز میکرده، بمباران کند؟ واشنگتن چگونه به طرف مقابل اطمینان میدهد که این حادثه سهوی بوده و تکرار نخواهد شد؟
هنگامی که اشتباهی اجتنابناپذیر رخ میدهد و یک سیستم نیمهمختار یا کاملاً خودمختار درگیر یک حادثه میشود، دولتها به مکانیزمی نیاز خواهند داشت تا بتوانند به کمک آن از درگیری ناخواسته جلوگیری کنند؛ چارچوبی که طرفهای درگیر را هدایت کرده و راهکارهایی برای جلوگیری از درگیری ارائه دهد. ایالات متحده در بیانیهای دیدگاه خود را برای استفاده نظامی مسئولانه از هوش مصنوعی و سیستمهای خودمختار منتشر کرد.
این بیانیه پیشنهاد کرد که هوش مصنوعی هرگز نباید اجازه داشته باشد از سلاحهای هستهای استفاده کند. اما دستورالعملهای دقیقی برای نحوه تنظیم رفتار سیستمهای هوش مصنوعی توسط دولتها ارائه نشد. علاوه بر این وجود یک کانال ارتباطی که کشورها از طریق آن بتوانند ارتباطات نادرست را برطرف کنند، ضروری به نظر میرسد. درواقع یک چارچوب جامعتر مورد نیاز است که با استقبال بیشتری از سوی دولتهای دیگر روبرو شود.
بخشی از ماجراهای مربوط به جنگ سرد که کمتر مورد توجه قرار گرفته، میتواند برای تدوین این چارچوب الهامبخش باشد. در دهه هفتاد میلادی، رهبران ایالات متحده و شوروی با وضع قوانینی در ارتباط با برخوردهای برنامهریزی نشده در دریاهای آزاد، تنشهای دریایی میان خود را آرام کردند. درباره جنگهای مبتنی بر هوش مصنوعی نیز باید چنین مسیری را در پیش گرفت. امروزه دولتها موظفند در ایجاد دستورالعملهای اساسی برای به حداکثر رساندن شفافیت و به حداقل رساندن اشتباههای محاسباتی به توافق برسند. بدون چنین توافقی، حوادث ناگوار بیشماری در آینده توسط سیستمهای مجهز به هوش مصنوعی و خودمختار، رقم خواهد خورد.
سرمایهگذاری دولتها در توسعه صنایع نظامی هوشمند
از دست دادن یک پهپاد جاسوسی بر فراز دریای سیاه در ماه مارس برای ایالات متحده بسیار ناراحتکننده بود. ارتش آمریکا برای مواقعی که هواپیمای سرنشیندار آنها دچار سرنگونی میشود، دستورالعمل مشخصی دارد. اما تجربه اخیر نشان میدهد که پروتکلهای استاندارد ارتش لزوماً به هواپیماهای بدون سرنشین تعمیم نمییابند. در سال ۲۰۱۹، ایران یک پهپاد جاسوسی نیروی دریایی آمریکا را بر فراز تنگه هرمز سرنگون کرد. این حادثه واکنش پنتاگون و کاخ سفید را برانگیخت و منجر به حملات تلافیجویانه ایالات متحده علیه ایران شد.
به گفته دونالد ترامپ، رئیس جمهور وقت ایالات متحده، ظاهراً نیروهای آمریکایی تنها ده دقیقه با هدف خود فاصله داشتند که این حمله متوقف شد. در آخرین لحظه واشنگتن تصمیم گرفت به جای درگیری فیزیکی، یک حمله سایبری علیه سیستمهای اطلاعاتی و موشکی ایران ترتیب دهد.
مزیت هواپیماهای کنترل از راه دور این است که در شرایط مناسب، خطر تشدید درگیری را کاهش میدهند. دلیل این امر میتواند این باشد که از دست دادن پرندههای بدون سرنشین، صرف نظر از گرانقیمت بودنشان، بهتر از مرگ خدمه هوایی است. اما همین روزنه امید نیز ممکن است با تکامل فناوری از بین برود.
تاکنون سیستمهای نظامی به طور کامل خودمختار نشدهاند و استقرار سیستمهای مجهز به هوش مصنوعی در میدان نبرد، محدود است. با این حال، ارتش آمریکا سرمایهگذاری زیادی در سراسر جهان برای تحقیق و توسعه در حوزه هوش مصنوعی انجام میدهد. وزارت دفاع ایالات متحده به تنهایی حدود ۷۰۰ پروژه فعال هوش مصنوعی در دست دارد. پروژههایی مانند برنامه اسکارلت دراگون (Scarlet Dragon) ارتش ایالات متحده، که از هوش مصنوعی برای شناسایی اهداف در تمرینات شلیک مستقیم استفاده میکند؛ یا پروژه نیروی دریایی آمریکا (Task Force 59)، که به دنبال توسعه سیستمهای نظارتی مقرون به صرفه و کاملاً خودمختار است. نیروی هوایی ایالات متحده امیدوار است که روزی بتواند سلاحهای هوشمند متعددی بسازد که قادر به برقراری ارتباط مستقل با یکدیگر باشند و اطلاعاتی در مورد اهداف احتمالی را با هم به اشتراک بگذارند.
اما ارتش آمریکا تنها مبتکر این جبهه نیست. در ماه آوریل، استرالیا، بریتانیا و ایالات متحده آزمایش مشترکی را به انجام رساندند که در آن گروهی از وسایل نقلیه هوایی و زمینی مجهز به هوش مصنوعی برای شناسایی و ردیابی اهداف با یکدیگر همکاری میکردند. چین در حال حاضر روی مجموعهای از حسگرهای هوش مصنوعی زیر آب سرمایهگذاری کرده و برخی از آنها در حال حاضر در دریای چین جنوبی استفاده میشوند. جنگ روسیه و اوکراین نیز شاهد برخی از اولین کاربردهای واقعی هوش مصنوعی در درگیری مستقیم بوده است. برای مثال نیروهای اوکراینی از یک رابط نرمافزاری هوش مصنوعی استفاده کردهاند که دادههای ماهوارهای تجاری، تصاویر حرارتی آتش توپخانه و اطلاعات دیگر را یکپارچه میکند. این اطلاعات بر روی نقشههای دیجیتالی قرار میگیرند و فرماندهان میتوانند از آنها برای انتخاب اهداف خود استفاده کنند.
سوءتفاهمهای مرگبار
مزایای سیستمهای مجهز به هوش مصنوعی، دولتهای مختلف را تشویق میکند که مسیر فعلی خود را ادامه داده و سیستمهای آینده را با خودمختاری بیشتری طراحی کنند. این فشار به سمت خودمختاری مبتنی بر هوش مصنوعی مطمئناً مزیتهای استراتژیک و تاکتیکی بسیاری دارد، اما هزینههایی نیز به همراه خواهد داشت.
احتمالاً بزرگترین چالش ماجرا این است که انسانها در برخورد با یک سیستم نظامی خودمختار، در واقع با یک جعبه سیاه مواجه میشوند؛ بنابراین ممکن است نتوانند قصد آن سیستم را متوجه شوند و تصمیم آن را درک کنند. البته این یک ویژگی ذاتی در حوزه فناوری محسوب میشود؛ زیرا الگوریتم ماشینی عموماً نمیخواهد یا نمیتواند «فرآیند فکری» خود را به گونهای که برای انسان قابل درک باشد، توضیح دهد. دشمنان نیز به نوبه خود ممکن است با بررسی رفتار هوش مصنوعی، متوجه پرخاشگری عمدی یا سهوی آن نشوند و در نتیجه مطمئن نباشند که باید چه واکنشی نشان دهند.
به علاوه تحقیقات نشان میدهد که حمله تصادفی یک سیستم تسلیحاتی خودمختار به هدف ناخواسته، ممکن است واکنش تهاجمیتری نسبت به یک خطای انسانی معمولی به دنبال داشته باشد. چرا که رهبران کشور مورد نظر ممکن است از اینکه طرف مقابل این تصمیمگیری مرگبار را صرفاً برعهده یک ماشین گذاشته، بسیار خشمگین شوند؛ بنابراین ممکن است آنها برای نشان دادن نارضایتی خود، واکنش شدیدی نشان دهند.
برخی از سناریوهای جدید و خطرات امنیتی ناشی از آنها ممکن است نه تنها با خطای انسانی بلکه با تصویر معمولی از جنگ نیز متفاوت باشد. یکی از مسئولین آزمایش هوش مصنوعی نیروی هوایی آمریکا اخیراً یک آزمایش فکری انجام داد که در آن یک پهپاد مجهز به هوش مصنوعی، برای شناسایی اهداف و نابود کردن آنها با تأیید یک اپراتور انسانی آموزش میبیند. هر هدف حذف شده برابر با یک امتیاز است و طبیعتاً هوش مصنوعی به دنبال به حداکثر رساندن امتیاز خود خواهد بود.
پهپاد ممکن است به این نتیجه برسد که وابستگی آن به تأیید انسانی برای حملات، تواناییاش را برای جمعآوری امتیاز محدود میکند و بنابراین امکان دارد تصمیم به حذف اپراتور بگیرد. اگر کشتن اپراتور کسر امتیاز به دنبال داشته باشد، حتی ممکن است که هوش مصنوعی در عوض به تخریب دکل ارتباطی که دستورات اپراتور را منتقل میکند متوسل شود. چیزی که این سناریو را از خطای انسانی یک سرباز سرکش متمایز میکند، این است که اقدامات هوش مصنوعی تصادفی نیست و حتی برنامهنویسی خود را نقض نمیکند.
رفتار هوش مصنوعی اگرچه نامطلوب است، اما یک ویژگی میباشد، نه یک اشکال. این درواقع یک نمونه کلاسیک از مشکل همترازی میان هوش مصنوعی و انسان است. توسعه و برنامهریزی هوش مصنوعی به گونهای که اقدامات آن دقیقاً با اهداف و ارزشهای انسانی مطابقت داشته باشد، چالش برانگیز است و هر اشتباه کوچکی در آن میتواند عواقب سنگینی به دنبال داشته باشد.
خطر دیگری که احتمال میرود وجود داشته باشد، نقشی است که سیستمهای خودمختار و مجهز به هوش مصنوعی میتوانند در بنبستهای نظامی و بازی جوجه (Chicken) [مدلی که به بررسی تلاقیهای طرفین در نظریه بازیها میپردازد] بازی کنند. درواقع غریزه انسان برای بقا، بیاحتیاطی او را کاهش میدهد. اما این غریزه زمانی که سیستمهای خودمختار بدون حضور یک اپراتور انسانی به کار گرفته میشوند، وارد عمل نخواهد شد.
سناریوی دیگری را در نظر بگیرید. فرض کنید دو هواپیمای کاملاً خودمختار از کشورهای رقیب در آسمان بالای قلمروی مورد مناقشه با یکدیگر روبرو میشوند. هر دو سیستم، دیگری را بهعنوان یک تهدید میشناسند و از آنجایی که برای تهاجم برنامهریزی شدهاند، مانورهایی اجرا میکنند تا میزان تسلط خود را به نمایش بگذارند. مدتی نمیگذرد که در یک درگیری غیرضروری یکی از آنها یا هردو آسیب میبینند یا حتی از بین میروند و به این ترتیب کشورهای سازندهشان را دچار بحران میکنند.
هوش مصنوعی همچنین میتواند در حوزه جنگ هستهای تغییرات مثبت و منفی بسیاری ایجاد کند. هوش مصنوعی میتواند این امکان را فراهم کند که موشک هستهای وارد شده به حریم هوایی سریعاً شناسایی شود و اینگونه زمان ارزشمندی را برای اپراتورها بخرد تا بتوانند گزینههای روی میز خود را بسنجند. اما زمانی که هر دو طرف از هوش مصنوعی استفاده میکنند، همین سرعت میتواند فشار بیشتری بر اپراتورها تحمیل کند تا برای جلوگیری از سبقت طرف مقابل، دست به اقدام سریع (و بدون فکر) بزنند.
بازدارندگی هستهای مجهز به هوش مصنوعی نیز درواقع یک شمشیر دو لبه خواهد بود. زیرا سیستمهای مجهز به سلاح هستهای خود مختار ممکن است تصمیمگیری لحظهای یک مهاجم را برای تخریب تمام صنایع دفاع هستهای دولت هدف سختتر کند؛ بنابراین انگیزه حمله پیشگیرانه را کاهش میدهد. از سوی دیگر، پیچیدگی سیستمهای مبتنی بر هوش مصنوعی خطر شکستهای فاجعهبار را به همراه دارد.
برخوردهای خارج از برنامه
با وجود خطراتی که ذکر شد، ارائه پاسخ صحیح به حوادث مربوط به سیستمهای مجهز به هوش مصنوعی، بسیار پیچیده و وابسته به شرایط خواهد بود. با توجه به اینکه دست و پنجه نرم کردن با این پیچیدگی در حین پرواز بسیار دشوار است، دولتها باید پیش از درگیریهای احتمالی راههایی برای فرار از مهلکه ایجاد کنند. خوشبختانه آنها میتوانند برای دستیابی به این امر به تجربیات گذشته رجوع کنند.
به گفته ارتش آمریکا در سال ۲۰۲۰، حدود ۹۰ درصد از پروازهای جاسوسی ایالات متحده بر فراز دریای سیاه با ممانعت جتهای روسی روبرو شد. ناتو همچنین اعلام کرد که در همان سال بیش از ۳۰۰ بار هواپیماهای روسیه را رهگیری کرده است. این توقیفها امر جدیدی به شمار نمیروند و صرفاً نسخه مدرنی از دیپلماسی قایقهای توپدار هستند. این اصطلاح برای توصیف گرایش کشورهای غربی به نمایش صنایع دریایی جهت قدرتنمایی و ترساندن سایر کشورها به منظور پیروی از خواستههایشان پدیدار شد.
با پیشرفت تکنولوژی، قایقهای توپدار ابتدا جای خود را به ناوهای هواپیمابر، سپس به بمبافکنهای B-52، و بعداً به هواپیماهای نظارتی AWACS Sentry E-3 و سایر نوآوریهای خیرهکننده دادند. استفاده از سیستمهای مجهز به هوش مصنوعی که فناوری به شدت پیشرفتهای دارند و همچنین توقیف آنها توسط طرف مقابل، صرفاً جدیدترین نسخه برای تکرار این تاکتیکهای فنی قدیمی است.
همانطور که از نام آن پیداست، دیپلماسی قایقهای توپدار برای دنبال کردن اهداف دیپلماتیک استفاده میشود، نه اهداف نظامی. اما با توجه به ابزارهای موجود، اشتباه محاسباتی و برخورد نابجا میتواند عواقب ناگواری داشته باشد. مدتهاست که دولتها این امر را درک کرده و راههایی برای محدود کردن درگیریهای ناخواسته پیدا کردهاند. یکی از موثرترین این مکانیسمها در طول جنگ سرد پدیدار شد. در آن زمان، اتحاد جماهیر شوروی با عملیات نیروی دریایی ایالات متحده در آبهایی که متعلق به خود میدانست (مانند دریای سیاه و دریای ژاپن) مخالفت کرد.
شوروی با توقیف مکرر و حمله به کشتیهای آمریکایی مواضع خود را آشکار کرد و این کار منجر به درگیریهای خطرناکی شد. در اوایل دهه ۱۹۷۰، ایالات متحده و اتحاد جماهیر شوروی دریافتند که خطرات ناشی از این درگیریهای غیرضروری در دریا، توجیهی نداشته و صدمات بسیاری برای طرفین به همراه دارد. این بینش دوطرفه، در سال ۱۹۷۲ به امضای توافقنامه حوادث دریایی ایالات متحده و شوروی انجامید.
توافقنامه INCSEA، هرگونه تعامل بین کشتیهای نظامی آمریکا و شوروی در دریاهای آزاد، از رویاروییهای عمدی تا برخوردهای خارج از برنامه را پوشش میداد. این توافقنامه همچنین پروتکلهای هشدار و روشهایی برای اشتراکگذاری اطلاعات طراحی کرد که خطر تصادفات و درگیریهای ناخواسته را کاهش میداد. در اوایل سال ۱۹۸۳، نیروی دریایی ایالات متحده این توافق را موفقیتآمیز اعلام کرد. چرا که درگیری در دریاهای آزاد، حتی با وجود گسترش نیروهای دریایی آمریکا و شوروی، کاهش یافته بود.
این توافق مانند سایر اقداماتی که برای اعتمادسازی صورت میگیرند، عملیاتهای نظامی را محدود نمیکرد. درواقع این توافق تغییری در رقابت میان ایالات متحده و شوروی در حوزه دریایی ایجاد نکرد؛ اما این رقابت را قابلپیشبینیتر و ایمنتر ساخت.
موفقیت توافقنامه INCSEA راه را برای مکانیسمهای مشابه در دریاهای آزاد و فراتر از آن هموار کرد. اتحاد جماهیر شوروی و بعداً روسیه این توافقنامه را با ۱۱ عضو ناتو و چندین کشور در اقیانوس هند و اقیانوس آرام امضا کردند. میتوان گفت که توافقات میان آمریکا و شوروی، پروتکلهای مشابهی را برای رویارویی در زمین و آسمان ایجاد کرد. اخیراً یک پروتکل غیراجباری برای برخوردهای خارج از برنامه در دریا میان چین و ایالات متحده ایجاد شده که علاوه بر خودشان، نزدیک به ۲۰ کشور دیگر اکنون به آن پایبند هستند. به علاوه بحثهایی در مورد گسترش مکانیسمهای مشابه و تعمیم آن به محدوده فضایی و حتی فضای مجازی نیز وجود دارد.
عناصر توافقنامه
باید در نظر داشت که حضور یا عدم حضور کادر هوایی در هواپیما، از نظر فنی تغییری در اعمال توافقنامه ایجاد نخواهد کرد. اما در نهایت فرض میشود که اپراتورهای انسانی کنترل را در دست دارند. البته چالشهای اختصاصی مرتبط با سیستمهای مجهز به هوش مصنوعی و خودمختار، راهحلهای متناسبتری را میطلبد. توافقنامهای مانند INCSEA برای عصر هوش مصنوعی، درواقع یک توافقنامه برای حوادث احتمالی خواهد بود که سلاحهای خودمختار رقم خواهند زد.
اولین مانع برای چنین توافقی، دشواری تحلیل معنایی و هدف پشت رفتار یک سیستم هوش مصنوعی است. در ادامه ممکن است بتوان عملکرد و کد داخلی این سیستمها را نظارت و تأیید کرد؛ که این امر نحوه تصمیمگیری آنها را شفافتر خواهد کرد. اما به عنوان یک راهحل موقتی، یک توافقنامه برای حوادث مرتبط با سیستمهای خودمختار میتواند به جای کد هوش مصنوعی، ابتدا سعی کند رفتار آن را تنظیم کند. این توافقنامه میبایست قوانین و استانداردهایی را برای رفتاری که از سیستمهای خودمختار و همچنین از ارتشهای پشت آنها انتظار میرود، تدوین کند.
عناصر چنین توافقی میتواند بسیار ساده باشد؛ مانند الزام هواپیماهای خودمختار برای رعایت حق تقدم هواپیماهای سرنشیندار (همانطور که قوانین اداره هوانوردی فدرال پیش از این از هواپیماهای بدون سرنشین تجاری و تفریحی خواسته بود). این توافق همچنین میتواند سیستمهای مجهز به هوش مصنوعی را ملزم کند که در فاصله مشخصی از سایر نهادها باقی بمانند. به علاوه میتواند مقررات اطلاعرسانی و هشدار را به گونهای تنظیم کند که استفاده اشخاص از سلاحها کاملاً شفاف باشد.
چنین مقرراتی ممکن است بدیهی به نظر برسند، اما قطعاً بیهوده نخواهند بود. تشریح این مقررات، مبنایی را برای رفتار مورد انتظار تعیین خواهد کرد؛ بنابراین یک سیستم هوش مصنوعی با هرگونه اقدام خارج از این پارامترها، مرتکب یک نقض قطعی خواهد شد. به علاوه آشکارسازی تخلفات یک سیستم مجهز به هوش مصنوعی، به کمک این پارامترها آسانتر میشود؛ حتی اگر بعد از حادثه تشخیص یک علت دقیق برای نافرمانی، از نظر فنی امکانپذیر نباشد.
با توجه به اینکه هوش مصنوعی در نقطه عطف قرار دارد، زمان تدوین یک توافقنامه برای حوادث مرتبط با سیستمهای خودمختار فرارسیده است. این فناوری با رشد روزافزونی که دارد برای استفاده نظامی بسیار مناسب است و علاوه بر کاربرد در تمرینات جنگی، میتواند در نبرد واقعی (مانند جنگ اوکراین) نیز استفاده شود. از سوی دیگر، سیستمهای نظامی مبتنی بر هوش مصنوعی آینده و درجه اختلالی که ایجاد خواهند کرد، نامشخص است.
کشورهایی که مایل به ابتکار عمل هستند، میتوانند قوانین سختگیرانهتری اعمال کنند. به نظر میرسد که بخش خصوصی مایل است تا حدودی توسعه هوش مصنوعی خود را براساس استانداردها تنظیم کند. سازمان بینالمللی هوانوردی غیرنظامی نیز در پاسخ به درخواست کشورهای عضو، روی یک چارچوب قانونی برای سیستمهای هوایی بدون سرنشین کار میکند و کشورها را تشویق کرده است تا بهترین قوانین و شیوههای موجود را پیشنهاد کنند.
یک توافقنامه رسمی میتواند این تلاشهای نوپا را بر پایه محکمی قرار دهد. مکانیسم پایه برای مسئولیتپذیری و پاسخگویی، نیاز مبرمی به ارائه هنجارهای واضحتر دارد. به علاوه لزوم تدوین پروتکلی برای رسیدگی به درگیریهای بینالمللی انکارناپذیر است. کشورها فرصت چندانی برای آمادهسازی خود نخواهند داشت، زیرا وقوع چنین حوادثی قطعی است اگرچه زمان رخ دادن آنها مشخص نباشد.