Gerdab.IR | گرداب

فرصت‌ها و تهدیدهای هوش مصنوعی برای امنیت سایبری چیست؟

فرصت‌ها و تهدیدهای هوش مصنوعی برای امنیت سایبری چیست؟
تاریخ انتشار : ۰۵ ارديبهشت ۱۴۰۳

طرفداران هوش مصنوعی می‌گویند این فناوری کارایی را افزایش می‌دهد و حتی از مجرمان پیشی می‌گیرد.

به گزارش گرداب، فناوری‌ها به عنوان تیغ‌های دولبه‌ای شناخته می‌شوند که در کنار منافع، آسیب‌هایی را نیز به همراه خود دارند. ظهور فناوری هوش مصنوعی و گسترش استفاده از آن، تأثیرات مثبت و منفیِ بسیاری بر حوزه امنیت سایبری داشته است که نشریه فایننشال‌تایمز در گزارشی به بررسی ابعاد مختلف آن می‌پردازد.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


در طول یک دهه اخیر در حوزه امنیت سایبری صحبت‌های زیادی پیرامون فناوری هوش مصنوعی می‌شود. از هوش مصنوعی به عنوان راهی برای نشان‌گذاری آسیب‌پذیری‌ها و شناسایی تهدیدها از طریق بازشناسی الگوها در مقادیر زیادی از داده‌ها یاد می‌شود. به عنوان مثال، ابزارهای ضدویروس مدت‌هاست که از هوش مصنوعی برای وارسیِ کدهای مخرب یا بدافزارها و هشداردهی به صورت آنی استفاده می‌کنند.

اما ظهور فناوری هوش مصنوعی مولد (Generative AI) که رایانه‌ها را قادر می‌سازد محتواهای پیچیده مانند متن، صدا و ویدئو را با استفاده از ورودی‌های ساده انسانی تولید کنند، فرصت‌های بیشتری را برای مدافعان سایبری فراهم می‌کند.

طرفداران این فناوری نوید می‌دهند که هوش مصنوعی، کارآمدی را در حوزه امنیت سایبری افزایش می‌دهد، مدافعان سایبری را در ارائه پاسخ‌های فوری به تهدیدات یاری می‌کند و حتی به آن‌ها کمک می‌کند تا به‌طور کلی از دشمنان خود پیشی بگیرند.

سام کینگ مدیرعامل شرکت امنیت سایبری Veracode می‌گوید: «تیم‌های امنیتی سال‌هاست از هوش مصنوعی برای شناسایی نقاط آسیب‌پذیر و هشداردهی درباره خطرات استفاده می‌کنند، اما هوش مصنوعی مولد این امر را به سطح دیگری می‌برد. اکنون، ما می‌توانیم از این فناوری نه فقط برای شناسایی مشکلات، بلکه برای حل آن‌ها و نهایتاً پیشگیری از آن‌ها در وهله اول استفاده کنیم».

فناوری هوش مصنوعی مولد اولین بار با راه‌اندازی ربات چت‌جی‌پی‌تی شرکت اوپن‌ای‌آی مورد توجه قرار گرفت. چت‌جی‌پی‌تی یک ربات گفتگو است که به سؤالات و درخواست‌های کاربران پاسخ می‌دهد.

به باور اندی تامپسون، پژوهشگر موسسه CyberArk Labs، هوش مصنوعی مولد برخلاف فناوری‌های پیش از خود، «سرعت یادگیری تطبیقی، درک متون و پردازش داده‌های چندوجهی را دارد و ساختار سفت‌وسخت و قاعده‌محورِ هوش مصنوعی سنتی را از بین برده و قابلیت‌های امنیتی آن را افزایش می‌دهد».

اکنون و پس از یک سال سروصدا پیرامون هوش مصنوعی مولد، آیا این وعده‌ها در حال تحقق هستند؟

در حال حاضر، هوش مصنوعی مولد برای ایجاد مدل‌های خاص، چت‌بات‌ها یا دستیاران هوش مصنوعی استفاده می‌شود که می‌توانند به تحلیلگران انسانی کمک کنند هک‌ها را شناسایی کرده و به آن پاسخ دهند؛ مشابه کاری که چت‌جی‌پی‌تی انجام می‌دهد اما این بار در حوزه امنیت سایبری. مایکروسافت یکی از این تلاش‌ها را به محصول رسانده و راه‌اندازی کرده که آن را Security Copilot می‌نامد، درحالی‌که گوگل مدلی به نام SEC Pub دارد.

فیل ونبلز، مدیر ارشد امنیت اطلاعات Google Cloud می‌گوید: «با آموزش مدل هوش مصنوعی مورد نظرمان بر اساس تمام داده‌هایمان از تهدیدات، تمام شیوه‌های امنیتی خوب و تمام دانش‌مان در مورد نحوه ساخت نرم‌افزارها و پیکربندی‌های ایمن، به جایی رسیده‌ایم که پیشاپیش مشتریانی داریم که از آن برای ارتقای توانایی خود در تجزیه و تحلیل حملات و بدافزارها و ایجاد یک سازوکار دفاع خودکار استفاده می‌کنند».

کارشناسان می‌گویند که کاربردهای ویژه‌تری نیز وجود دارد. به عنوان مثال، می‌توان از این فناوری (هوش مصنوعی مولد) برای شبیه‌سازی حمله یا اطمینان از ایمن ماندن کدهای یک شرکت استفاده کرد. مدیر Veracode می‌گوید: «اکنون می‌توانید یک مدل هوش مصنوعی را انتخاب کنید و آن را آموزش دهید تا کارهایی فراتر از یافتن آسیب‌پذیری‌ها انجام دهد. هوش مصنوعی می‌تواند به‌طور خودکار اصلاحاتی را برای کدهای ناامن به شما پیشنهاد کند، برای تیم‌های امنیتی مطالب آموزشی تولید کند و در صورت شناسایی یک تهدید، اقدامات کنترلی را مشخص کند».

همچنین گانگ وانگ دانشیار علوم کامپیوتر در کالج مهندسی گرینگر دانشگاه ایلینوی می‌گوید هوش مصنوعی مولد می‌تواند برای «تولید و ترکیب داده‌های لازم» برای آموزش مدل‌های یادگیری ماشینی استفاده شود. او خاطرنشان می‌کند: «این به ویژه برای وظایف مرتبط با امنیت سایبری که داده‌ها کم یا فاقد تنوع هستند مفید است».
ظرفیت توسعه سیستم‌های امنیت سایبری هوش مصنوعی در حال حاضر در معاملات شرکت‌های سایبری مورد توجه واقع می‌شود، برای نمونه در معامله خرید شرکت سازنده نرم‌افزارهای امنیتی به نام Splunk توسط شرکت سیسکو به مبلغ ۲۸ میلیارد دلار. سام کینگ می‌گوید: «این معامله نشان‌دهنده یک روند کلان است و نشان می‌دهد که صنعت چگونه بیش‌ازپیش به سمت به‌کارگیری هوش مصنوعی در بهبود امنیت سایبری قدم برمی‌دارد».

او به این نکته اشاره می‌کند که این پیوندها میان هوش مصنوعی، صنعت و مشتریان، به خریدار اجازه می‌دهد تا به سرعت قابلیت‌های مبتنی بر هوش مصنوعی را ارتقا داده و درعین‌حال برای آن‌ها دسترسی بیشتری به داده‌هایی می‌دهد که می‌توانند برای آموزش مدل‌های هوش مصنوعی خود مورد استفاده قرار دهند.

با این وجود، وانگ هشدار می‌دهد که امنیت سایبری مبتنی بر هوش مصنوعی نمی‌تواند «به‌طور کامل جایگزین روش‌های سنتی موجود شود». او می‌گوید به منظور نیل به موفقیت، «رویکردهای مختلف یکدیگر را تکمیل می‌کنند تا دید کامل‌تری از تهدیدات سایبری به دست آمده و روش‌های حفاظتی مختلفی را از زاویه دیدهای گوناگون ارائه دهند».

به عنوان مثال، ابزارهای هوش مصنوعی ممکن است نرخ بالایی از موارد مثبت کاذب داشته باشند؛ به این معنی که آن‌قدر دقیق نیستند که بتوان به تنهایی به آن‌ها اعتماد کرد.

در واقع آن‌ها می‌توانند حملات شناخته شده را به سرعت شناسایی و متوقف کنند، اما درعین‌حال ممکن است هنگام مواجهه با تهدیدات جدیدی مثل حملات به اصطلاح «روز صفر» که نسبت به حملات قبلی متفاوت هستند، دچار مشکل می‌شوند.

کارشناسان هشدار می‌دهند که با وجود بالا گرفتن هیاهوی هوش مصنوعی در بخش فناوری، متخصصان سایبری باید آن را با احتیاط به کار گیرند و برای مثال استانداردهای مربوط به حفظ حریم خصوصی و حفاظت از داده‌ها را حفظ کنند.

بر اساس داده‌های آزمایشگاه Netskope، در مجموعه‌ها و سازمان‌های بزرگ، داده‌های حساس توسط کارکنان در قالب پرسش‌هایی از هوش مصنوعی می‌کنند، به شکل روزانه فاش می‌شود؛ امری که می‌تواند کار را برای هکرها راحت کند.

همچنین استیو استون، رئیس آزمایشگاهRubrik Zero در گروه امنیت داده Rubrik، به ظهور بعضی چت‌بات‌های هوش مصنوعی اشاره می‌کند که برای استفاده هکرها اختصاصی‌سازی شده‌اند، مانند FraudGPT و WormGPT. این ربات‌ها به گونه‌ای طراحی شده‌اند که حتی می‌توانند «افراد دارایِ حداقل مهارت‌های فنی» را قادر به انجام حملات سایبری پیچیده کنند.

بعضی از هکرها از ابزارهای هوش مصنوعی برای طراحی و اجرای کلاهبرداری‌ها از نوع «مهندسی اجتماعی» در مقیاس بالا و به شکلی هدفمندتر استفاده می‌کنند. به گفته مکس هاینمایر، مدیر محصول شرکت Darktrace که یک شرکت امنیت سایبری با تمرکز بر ابزارهای هوش مصنوعی است، پس از معرفی چت‌جی‌پی‌تی و از ژانویه تا فوریه 2023، حملات جدید مهندسی اجتماعی ۱۳۵ درصد افزایش داشته است.

او می‌گوید: «سال ۲۰۲۴ نشان خواهد داد که بازیگران حرفه‌ای‌تری مانند گروه‌های سایبری پیشرفته (APTs)، هکرهای دولتی و گروه‌های باج‌افزاری تا چه حد موفق به بهره‌گیری از هوش مصنوعی شده‌اند. تأثیری که هوش مصنوعی خواهد گذاشت این است که حملات سریع‌تر، گسترده‌تر، شخصی‌سازی‌شده‌تر و هوشمندانه‌تر خواهند شد و کاربران در زمان کمتری فریب مهاجمان را خواهند خورد».

با این وجود، بسیاری از کارشناسان سایبری خوشبین هستند که این فناوری به‌طور کلی برای متخصصان سایبری یک موهبت خواهد بود. ونبلز می‌گوید: «در نهایت این مدافعان سیستم‌ها هستند که دست بالا را دارند، زیرا ما مالک این فناوری هستیم و به همین خاطر می‌توانیم توسعه آن را با در نظر گرفتن موارد استفاده خاص جهت‌دهی کنیم. در اصل، ما این امتیاز را داریم که در زمین خودمان عمل می‌کنیم و قصد داریم از این مزیت به‌طور کامل استفاده کنیم».