هوش‌های مصنوعی نتیجه‌ی نبردهای سایبری آینده را در فضای مجازی مشخص کرده و تنظیم نادرست آن‌ها، مشکلات بزرگی را پدید می‌آورد.
تاریخ انتشار: ۰۸ دی ۱۳۹۷ - ۱۰:۴۶
کد خبر: ۲۸۱۲۴
به گزارش گرداب، با پیشرفت روزافزون هوش مصنوعی، تعدادی از متخصصان امنیت ملی آمریکا بیان می‌کنند که احتمالاً نتیجه نبردهای آینده، توسط رایانه‌هایی که در فضای سایبری با یکدیگر مبارزه می‌کنند، مشخص خواهد شد؛ اما پیش‌بینی دیگری نیز وجود دارد که توضیح می‌دهد، این فناوری، امنیتی مصنوع و دروغینی را برای دفاع سایبری فراهم می‌کند؛ زیرا به سختی می‌توان عملکرد فناوری‌ها را پیش‌گویی کرد.

به تازگی 2 گزارش جدید منتشر شده‌اند که سعی دارند بینشی تازه را در رابطه با شیوه‌ی استفاده از هوش مصنوعی در امنیت سایبری آینده ارائه بدهند.

الکساندر نات (Alexander Knott)، دانشمند ارشد آزمایشگاه تحقیقاتی نیروی زمینی آمریکا (ARL) در گزارش‌های مذکور نوشته است:

 ابزارهای مجهز به هوش مصنوعی به احتمال زیاد، به مبارزان سایبری اصلی در میدان نبرد آینده، تبدیل می‌شوند. 
نات با اشارهپیچیدگی روزافزون میدان مبارزه آینده ادامه داد:

 وابستگی امروزی به مدافعان سایبری انسانی، در آینده قابل‌اعتماد نخواهد بود. 
درگیری‌های آینده با توجه به گسترش ابزارهای متصل، روبات‌های جنگی و دیگر نوآوری‌های پیش رو، بسیار مشکل خواهند بود.

وی که به طور خاص روی امنیت سایبری میدان‌های نبرد آینده تحقیق می‌کند، اشاره کرد، هوش‌های مصنوعی فعلی مناسب نیستند؛ زیرا با توجه به ماهیت سیال گونه‌ی مبارزه، تعداد ابزارهای متصل و نقص‌های موجود در توان محاسباتی قابل‌حمل، فناوری یادگیری ماشینی باید پیشرفت عظیمی را برای حضور در میدان جنگ واقعی تجربه کند.

انتقاد وی از توانای هوش‌های مصنوعی کنونیِ حاضر در میدان جنگ، گلایه‌ی دیگر را در رابطه با پهنه‌ی گسترده‌ی صنعت امنیت سایبری بازتاب می‌دهد.

پیشرفته‌ترین فناوری‌های تشخیص تهدید فعلی، برای علامت‌گذاری رویدادهای بالقوه، از تعدادی هوش مصنوعی استفاده می‌کنند؛ اما کارشناسان معتقدند در صورت تنظیم نادرست سیستم، ممکن است یک مثبت کاذب (false positive) به سیستم وارد شده و «فرسودگی تهدید» (threat fatigue) ایجاد کند.

برای مثال با توجه به گزارش پونمون (Ponemon) سازمان‌های فناوری و امنیتی تقریباً در هر هفته هشداری در رابطه با 17 هزار بدافزار دریافت می‌کنند. با وجود این تنها 19 درصد پیام‌ها قابل‌اعتماد در نظر گرفته شده و از این تعداد 4 درصد آن‌ها موردبررسی قرار می‌گیرند.

در گزارش دوم اشاره شده است که استفاده از رویکردهای ترکیبی هوش مصنوعی احتمالاً باعث تقویت دفاع در امنیت سایبری خواهد شد.

بیشتر هوش‌های مصنوعی را می‌توان در 2 دسته‌ی سمبلیک (symbolic) و غیر سمبلیک (non-symbolic) طبقه‌بندی کرد که به شرح زیر هستند:

هوش مصنوعی سمبلیک: در این دسته از منطق خودمختاری از پیش برنامه‌ریزی شده مانند درخت‌های تصمیم‌گیری استفاده می‌شود.
هوش مصنوعی غیر سمبلیک: از برنامه‌هایی استفاده می‌کند که امکان یادگیری در رابطه با تهدیدها و شناسایی ناهنجاری‌ها را فراهم می‌آورند.
پژوهشگران هوش مصنوعی شرکت «Soar Technology»، در یک پروژه‌ی نیروی دریایی، به منظور تقویت امنیت سایبری، از ترکیب هر 2 مفهوم یادگیری ماشینی بالا استفاده می‌کنند.

اسکات لاثروپ (Scott Lathrop) و فرناندو میمی (Fernando Maymí)، پژوهشگران شرکت Soar و از نویسندگان گزارش یاد شده اظهار کردند:

 به منظور پی بردن به ظرفیت کامل هوش مصنوعی، ما باید انواع مختلف آن را برای پوشش دادن محدودیت‌های یکدیگر، با هم ترکیب کنیم. هیچ‌یک از این رویکردها کامل و کافی نیستند؛ زیرا هرکدام با هدف برطرف سازی مجموعه‌ای از مشکلات خاص بهینه‌سازی شده‌اند. 
پژوهشگران در حال حاضر روی محدودیت‌های فعلی هوش مصنوعی و برطرف سازی آن‌ها تحقیق می‌کنند.

برای مثال در زمینه روش‌های فریب خودمختار، محققان یادگیری عمیق برای مقابله با حملات اختلال سرویس توزیع شده (DDOS)، از رایانه‌های قدرتمند و شبکه‌های توزیع شده مستقل، بهره می‌گیرند.

پنتاگون در جولای سال 2018، قراردادی 5 ساله به ارزش 885 میلیون دلاری را با شرکت بوز آلن همیلتن (Booz Allen Hamilton)، پیمان‌کار دفاعی آمریکا، امضا کرد. البته جزئیات این قرارداد که در زمینه هوش مصنوعی است، هنوز مشخص نیست. از طرفی وزارت دفاع راهبرد هوش مصنوعی خود را در اوت همین سال منتشر ساخت. در این سند آمده است، وزارت خانه یاد شده در کوتاه مدت باید پایگاه داده‌ای از ظرفیت‌های بالقوه کشف شده یا آسیب‌پذیری‌های امنیت سایبری حسگرهای مختلف را توسعه بدهد که جزئی حیاتی از یادگیری ماشینی به حساب می‌آید.

نظر شما :
نام:
ایمیل:
* نظر:
* کد امنیتی:
Chaptcha
حروفي را كه در تصوير مي‌بينيد عينا در فيلد مقابلش وارد كنيد