به گزارش
گرداب، با پیشرفت روزافزون هوش مصنوعی، تعدادی از متخصصان امنیت ملی آمریکا بیان میکنند که احتمالاً نتیجه نبردهای آینده، توسط رایانههایی که در فضای سایبری با یکدیگر مبارزه میکنند، مشخص خواهد شد؛ اما پیشبینی دیگری نیز وجود دارد که توضیح میدهد، این فناوری، امنیتی مصنوع و دروغینی را برای دفاع سایبری فراهم میکند؛ زیرا به سختی میتوان عملکرد فناوریها را پیشگویی کرد.
به تازگی 2 گزارش جدید منتشر شدهاند که سعی دارند بینشی تازه را در رابطه با شیوهی استفاده از هوش مصنوعی در امنیت سایبری آینده ارائه بدهند.
الکساندر نات (Alexander Knott)، دانشمند ارشد آزمایشگاه تحقیقاتی نیروی زمینی آمریکا (ARL) در گزارشهای مذکور نوشته است:
ابزارهای مجهز به هوش مصنوعی به احتمال زیاد، به مبارزان سایبری اصلی در میدان نبرد آینده، تبدیل میشوند.
نات با اشارهپیچیدگی روزافزون میدان مبارزه آینده ادامه داد:
وابستگی امروزی به مدافعان سایبری انسانی، در آینده قابلاعتماد نخواهد بود.
درگیریهای آینده با توجه به گسترش ابزارهای متصل، روباتهای جنگی و دیگر نوآوریهای پیش رو، بسیار مشکل خواهند بود.
وی که به طور خاص روی امنیت سایبری میدانهای نبرد آینده تحقیق میکند، اشاره کرد، هوشهای مصنوعی فعلی مناسب نیستند؛ زیرا با توجه به ماهیت سیال گونهی مبارزه، تعداد ابزارهای متصل و نقصهای موجود در توان محاسباتی قابلحمل، فناوری یادگیری ماشینی باید پیشرفت عظیمی را برای حضور در میدان جنگ واقعی تجربه کند.
انتقاد وی از توانای هوشهای مصنوعی کنونیِ حاضر در میدان جنگ، گلایهی دیگر را در رابطه با پهنهی گستردهی صنعت امنیت سایبری بازتاب میدهد.
پیشرفتهترین فناوریهای تشخیص تهدید فعلی، برای علامتگذاری رویدادهای بالقوه، از تعدادی هوش مصنوعی استفاده میکنند؛ اما کارشناسان معتقدند در صورت تنظیم نادرست سیستم، ممکن است یک مثبت کاذب (false positive) به سیستم وارد شده و «فرسودگی تهدید» (threat fatigue) ایجاد کند.
برای مثال با توجه به گزارش پونمون (Ponemon) سازمانهای فناوری و امنیتی تقریباً در هر هفته هشداری در رابطه با 17 هزار بدافزار دریافت میکنند. با وجود این تنها 19 درصد پیامها قابلاعتماد در نظر گرفته شده و از این تعداد 4 درصد آنها موردبررسی قرار میگیرند.
در گزارش دوم اشاره شده است که استفاده از رویکردهای ترکیبی هوش مصنوعی احتمالاً باعث تقویت دفاع در امنیت سایبری خواهد شد.
بیشتر هوشهای مصنوعی را میتوان در 2 دستهی سمبلیک (symbolic) و غیر سمبلیک (non-symbolic) طبقهبندی کرد که به شرح زیر هستند:
هوش مصنوعی سمبلیک: در این دسته از منطق خودمختاری از پیش برنامهریزی شده مانند درختهای تصمیمگیری استفاده میشود.
هوش مصنوعی غیر سمبلیک: از برنامههایی استفاده میکند که امکان یادگیری در رابطه با تهدیدها و شناسایی ناهنجاریها را فراهم میآورند.
پژوهشگران هوش مصنوعی شرکت «Soar Technology»، در یک پروژهی نیروی دریایی، به منظور تقویت امنیت سایبری، از ترکیب هر 2 مفهوم یادگیری ماشینی بالا استفاده میکنند.
اسکات لاثروپ (Scott Lathrop) و فرناندو میمی (Fernando Maymí)، پژوهشگران شرکت Soar و از نویسندگان گزارش یاد شده اظهار کردند:
به منظور پی بردن به ظرفیت کامل هوش مصنوعی، ما باید انواع مختلف آن را برای پوشش دادن محدودیتهای یکدیگر، با هم ترکیب کنیم. هیچیک از این رویکردها کامل و کافی نیستند؛ زیرا هرکدام با هدف برطرف سازی مجموعهای از مشکلات خاص بهینهسازی شدهاند.
پژوهشگران در حال حاضر روی محدودیتهای فعلی هوش مصنوعی و برطرف سازی آنها تحقیق میکنند.
برای مثال در زمینه روشهای فریب خودمختار، محققان یادگیری عمیق برای مقابله با حملات اختلال سرویس توزیع شده (DDOS)، از رایانههای قدرتمند و شبکههای توزیع شده مستقل، بهره میگیرند.
پنتاگون در جولای سال 2018، قراردادی 5 ساله به ارزش 885 میلیون دلاری را با شرکت بوز آلن همیلتن (Booz Allen Hamilton)، پیمانکار دفاعی آمریکا، امضا کرد. البته جزئیات این قرارداد که در زمینه هوش مصنوعی است، هنوز مشخص نیست. از طرفی وزارت دفاع راهبرد هوش مصنوعی خود را در اوت همین سال منتشر ساخت. در این سند آمده است، وزارت خانه یاد شده در کوتاه مدت باید پایگاه دادهای از ظرفیتهای بالقوه کشف شده یا آسیبپذیریهای امنیت سایبری حسگرهای مختلف را توسعه بدهد که جزئی حیاتی از یادگیری ماشینی به حساب میآید.