به گزارش گرداب، با توجه به پیشرفتهای حاصل شده در زمینه هوش مصنوعی و به کارگیری آن در امنیت سایبری، واژهی یادگیری ماشینی یکی از اصلیترین مفاهیم امنیتی را سال 2017 دارد؛ اما دشمنی که به اندازهی کافی هوشمند باشد، میتواند از الگوریتمهای این فناوری سوءاستفاده کرده و کیفیت تصمیمهای گرفته شده را کاهش دهد.
دوبراه فرینک (Deborah Frincke)، مدیر ادارهی تحقیقات مرکز خدمات امنیتی سازمان امنیت ملی آمریکا1 گفت: «هماکنون نگرانیهایی در مورد احتمال پیدایش دشمنی که قادر باشد در یک محیط بزرگ از دادهها، آن را با اطلاعات غلط فریب بدهد وجود دارد.»
فرینک در مورد الگوریتم یادگیری ماشینی رقیب2 (Adversarial machine learning) گفت: «یک حوزه مطالعاتی جدید بوده و شاهد آن هستیم که تا حدی به طور طبیعی در حال پیشرفت است. شاید معقول باشد اگر به استمرار این مسیر باور داشته باشیم»
به عنوان مثال یک سازمان ممکن است تصمیم بگیرد از یادگیری ماشینی برای توسعه یک سامانهی خود تشخیصی با قابلیت رفع آسیبپذیریها در شبکهی خود استفاده کند؛ اما چه اتفاقی رخ میدهد اگر یک مهاجم بتواند به شبکه نفوذ کند؟ یا حتی قبل از شروع پردازش الگوریتم یاد شده در شبکه حضور داشته باشد؟
فرینک گفت: «رفتار هکرها هماکنون به بخشی از یک هنجار تبدیل شده است؛ در نتیجه فعالیتی که من برای محافظت از سامانهی خود انجام میدهم به یک چالش تبدیل میگردد. نکتهی جالبتر این است که اگر شما از یک الگوریتم داده محور برای تغذیهی یادگیری ماشینی استفاده میکنید؛ حتی اگر دادههای اصلی را نگاهدارید، نمیتوانید متوجه شوید چه رویکردی برای الگوریتم مذکور ایجاد شده است.»
تحلیلگران معتقدند یادگیری ماشینی نیز با محدودیتهایی همراه است. به عنوان مثال تام درامُند (Tom Drummond) استاد دانشگاه مانش استرالیا (Monash University)، در سال 2016 اشاره کرد شبکههای عصبی که اساس یادگیری ماشینی محسوب میشود، میتوانند گمراه شوند، مگر اینکه به آنها گفته شود چرا در اشتباه هستند و مسیر درست کدام است.
برای اشاره به نمونهی کلاسیک دیگری از این مشکل، میتوان به بخشی از گزارش نیل فراسر (Neil Fraser) با عنوان «حماقت شبکهی عصبی» (Neural Network Follies) در سال 1998 اشاره کرد.
بر اساس گزارش یاد شده وزارت دفاع آمریکا از دههی 80 در تلاش است از شبکهی عصبی برای تشخیص تهدیدات استفاده کنند. به عنوان مثال میتوان از شناسایی تانکهای پنهان شدهی دشمن در پشت درخت نام برد. محققان، این شبکه را با دو دسته از تصاویر آموزش دادند. دستهی اول تصاویری از درختانی هستند که پشت آنها تانکی قرار داشته و دیگر عکسها مربوط به درختانی بدون حضور تانک میشد؛ اما زمانی که سامانه مورد استفاده قرار گرفت با شکست سنگینی مواجه گشت.
فراسر در مقالهی یاد شده نوشته است: «بعد از انجام بررسیهای گسترده، در نهایت فردی متوجه شد تمام 200 تصویری که تانک در آن حضور داشت در روزی ابری گرفته شدهاند؛ این در حالی است که دیگر تصاویر را در روزی آفتابی ثبت کردهاند. در حال حاضر ارتش دارای ابر رایانهای به ارزش چندین میلیون دلاری است که میتواند تشخیص دهد هوا ابری است یا آفتابی.»
در زمان سخنرانی فرینک در اجلاس مرکز امنیت سایبری استرالیا (ACSC3) در کانبرا در مورد محدودیتهای یادگیری ماشینی صحبت کرد. وی همچنین به تشریح چند راه بردی که از نظر سازمان سیا مؤثر هستند، پرداخت.
برای نمونه سازمانها میتوانند با پنهان کردن توان یادگیری ماشینی خود از دشمن قدرت امنیت سایبری خود را متعادل سازند.
به صورت طبیعی دفاع از شبکهها حالتی نامتقارن دارد. امنیت سایبری بسیار نامتعادل است؛ زیرا کارشناسان باید در برابر تمام تهدیدات امنیت ایستاده و آنها را بررسی کنند؛ اما هکرها تنها روی حملهی خود متمرکز میشوند.
مدیر ادارهی تحقیقات ادامه داد: «در مواجهه با هکرها باید کاری وجود داشته باشد که بتوان انجام داد و اینطور تصور میکنید که احتمالاً از مزیت بازی در زمین خانگی برخوردار خواهید بود.»
به طور معمول سازمانها در تلاش هستند، سامانههای اطلاعاتی خود را تا حد امکان کارآمد نگاه داشته و هر چه بیشتر شبکه را کنترل کند؛ اما از دیدگاه یک مهاجم پیشبینی رویدادهای داخل شبکه، در هر لحظه بسیار ساده است.
رویکرد فریب در دفاع (defensive deception approach) به معنی ایجاد ظرفیت اضافی برای طراحی رویکردهایی متغیر است تا مهاجمان را گمراه کند. در واقع باعث میشود یک هکر در زمان حمله متوجه نشود دادههای موجود واقعی است یا خیر و عملکردی مشابه هانیپات (honeypot) دارد.
به عنوان مثال میتوان به پردازش دادهها در یک محیط ابری اشاره کرد. در این روش احتمالاً دادههای تکراری در سراسر بسیاری از گرههای شبکه به وجود آمده و کاربر در زمان استفاده، بین آنها سوییچ میکند.
فرینک خاطر نشان کرد: «اگر شما سعی کنید حملهای یک پارچه انجام بدهید، نمیتوانید تشخیص دهید که من از کدامیک از صدها گرهی موجود استفاده میکنم. ممکن است که من در حال کار در یک زیرمجموعه از گرهها باشم و شما نتوانید آن را پیدا کنید. در نتیجه باید تمام گرهها را در یک زمان و با یکدیگر تغییر بدهید؛ اما این کار بسیار سخت است.»
وی اشاره کرد رویکردهای بالا میتواند احتمال تشخیص مهاجمها را افزایش بدهد.
مدیر ادارهی تحقیقات مرکز خدمات امنیتی سازمان امنیت ملی آمریکا گفت: «ما میتوانیم هکرها را به سمت نتایج غلط راهنمایی کنیم. ما در حال تلاش برای سختتر شدن کار و ساده شدن شناسایی آنها هستیم.»
_____________________________________
1- Research Directorate (RD) of the US National Security Agency/Central Security Service
2- یادگیری ماشینی رقیب یک زمینهی تحقیقاتی مشترک بین یادگیری ماشینی و امنیت رایانهها است. هدف این زمینهی تحقیقاتی تصویب اتخاذ امن روشهای یادگیری ماشینی برای کارهایی مانند فیلتر کردن هرزنامهها، بدافزارها و احراز هویت بیومتریک است.
3- Australian Cyber Security Centre