طرفداران هوش مصنوعی میگویند این فناوری کارایی را افزایش میدهد و حتی از مجرمان پیشی میگیرد.
به گزارش گرداب، فناوریها به عنوان تیغهای دولبهای شناخته میشوند که در کنار منافع، آسیبهایی را نیز به همراه خود دارند. ظهور فناوری هوش مصنوعی و گسترش استفاده از آن، تأثیرات مثبت و منفیِ بسیاری بر حوزه امنیت سایبری داشته است که نشریه فایننشالتایمز در گزارشی به بررسی ابعاد مختلف آن میپردازد.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
در طول یک دهه اخیر در حوزه امنیت سایبری صحبتهای زیادی پیرامون فناوری هوش مصنوعی میشود. از هوش مصنوعی به عنوان راهی برای نشانگذاری آسیبپذیریها و شناسایی تهدیدها از طریق بازشناسی الگوها در مقادیر زیادی از دادهها یاد میشود. به عنوان مثال، ابزارهای ضدویروس مدتهاست که از هوش مصنوعی برای وارسیِ کدهای مخرب یا بدافزارها و هشداردهی به صورت آنی استفاده میکنند.
اما ظهور فناوری هوش مصنوعی مولد (Generative AI) که رایانهها را قادر میسازد محتواهای پیچیده مانند متن، صدا و ویدئو را با استفاده از ورودیهای ساده انسانی تولید کنند، فرصتهای بیشتری را برای مدافعان سایبری فراهم میکند.
طرفداران این فناوری نوید میدهند که هوش مصنوعی، کارآمدی را در حوزه امنیت سایبری افزایش میدهد، مدافعان سایبری را در ارائه پاسخهای فوری به تهدیدات یاری میکند و حتی به آنها کمک میکند تا بهطور کلی از دشمنان خود پیشی بگیرند.
سام کینگ مدیرعامل شرکت امنیت سایبری Veracode میگوید: «تیمهای امنیتی سالهاست از هوش مصنوعی برای شناسایی نقاط آسیبپذیر و هشداردهی درباره خطرات استفاده میکنند، اما هوش مصنوعی مولد این امر را به سطح دیگری میبرد. اکنون، ما میتوانیم از این فناوری نه فقط برای شناسایی مشکلات، بلکه برای حل آنها و نهایتاً پیشگیری از آنها در وهله اول استفاده کنیم».
فناوری هوش مصنوعی مولد اولین بار با راهاندازی ربات چتجیپیتی شرکت اوپنایآی مورد توجه قرار گرفت. چتجیپیتی یک ربات گفتگو است که به سؤالات و درخواستهای کاربران پاسخ میدهد.
به باور اندی تامپسون، پژوهشگر موسسه CyberArk Labs، هوش مصنوعی مولد برخلاف فناوریهای پیش از خود، «سرعت یادگیری تطبیقی، درک متون و پردازش دادههای چندوجهی را دارد و ساختار سفتوسخت و قاعدهمحورِ هوش مصنوعی سنتی را از بین برده و قابلیتهای امنیتی آن را افزایش میدهد».
اکنون و پس از یک سال سروصدا پیرامون هوش مصنوعی مولد، آیا این وعدهها در حال تحقق هستند؟
در حال حاضر، هوش مصنوعی مولد برای ایجاد مدلهای خاص، چتباتها یا دستیاران هوش مصنوعی استفاده میشود که میتوانند به تحلیلگران انسانی کمک کنند هکها را شناسایی کرده و به آن پاسخ دهند؛ مشابه کاری که چتجیپیتی انجام میدهد اما این بار در حوزه امنیت سایبری. مایکروسافت یکی از این تلاشها را به محصول رسانده و راهاندازی کرده که آن را Security Copilot مینامد، درحالیکه گوگل مدلی به نام SEC Pub دارد.
فیل ونبلز، مدیر ارشد امنیت اطلاعات Google Cloud میگوید: «با آموزش مدل هوش مصنوعی مورد نظرمان بر اساس تمام دادههایمان از تهدیدات، تمام شیوههای امنیتی خوب و تمام دانشمان در مورد نحوه ساخت نرمافزارها و پیکربندیهای ایمن، به جایی رسیدهایم که پیشاپیش مشتریانی داریم که از آن برای ارتقای توانایی خود در تجزیه و تحلیل حملات و بدافزارها و ایجاد یک سازوکار دفاع خودکار استفاده میکنند».
کارشناسان میگویند که کاربردهای ویژهتری نیز وجود دارد. به عنوان مثال، میتوان از این فناوری (هوش مصنوعی مولد) برای شبیهسازی حمله یا اطمینان از ایمن ماندن کدهای یک شرکت استفاده کرد. مدیر Veracode میگوید: «اکنون میتوانید یک مدل هوش مصنوعی را انتخاب کنید و آن را آموزش دهید تا کارهایی فراتر از یافتن آسیبپذیریها انجام دهد. هوش مصنوعی میتواند بهطور خودکار اصلاحاتی را برای کدهای ناامن به شما پیشنهاد کند، برای تیمهای امنیتی مطالب آموزشی تولید کند و در صورت شناسایی یک تهدید، اقدامات کنترلی را مشخص کند».
همچنین گانگ وانگ دانشیار علوم کامپیوتر در کالج مهندسی گرینگر دانشگاه ایلینوی میگوید هوش مصنوعی مولد میتواند برای «تولید و ترکیب دادههای لازم» برای آموزش مدلهای یادگیری ماشینی استفاده شود. او خاطرنشان میکند: «این به ویژه برای وظایف مرتبط با امنیت سایبری که دادهها کم یا فاقد تنوع هستند مفید است».
ظرفیت توسعه سیستمهای امنیت سایبری هوش مصنوعی در حال حاضر در معاملات شرکتهای سایبری مورد توجه واقع میشود، برای نمونه در معامله خرید شرکت سازنده نرمافزارهای امنیتی به نام Splunk توسط شرکت سیسکو به مبلغ ۲۸ میلیارد دلار. سام کینگ میگوید: «این معامله نشاندهنده یک روند کلان است و نشان میدهد که صنعت چگونه بیشازپیش به سمت بهکارگیری هوش مصنوعی در بهبود امنیت سایبری قدم برمیدارد».
او به این نکته اشاره میکند که این پیوندها میان هوش مصنوعی، صنعت و مشتریان، به خریدار اجازه میدهد تا به سرعت قابلیتهای مبتنی بر هوش مصنوعی را ارتقا داده و درعینحال برای آنها دسترسی بیشتری به دادههایی میدهد که میتوانند برای آموزش مدلهای هوش مصنوعی خود مورد استفاده قرار دهند.
با این وجود، وانگ هشدار میدهد که امنیت سایبری مبتنی بر هوش مصنوعی نمیتواند «بهطور کامل جایگزین روشهای سنتی موجود شود». او میگوید به منظور نیل به موفقیت، «رویکردهای مختلف یکدیگر را تکمیل میکنند تا دید کاملتری از تهدیدات سایبری به دست آمده و روشهای حفاظتی مختلفی را از زاویه دیدهای گوناگون ارائه دهند».
به عنوان مثال، ابزارهای هوش مصنوعی ممکن است نرخ بالایی از موارد مثبت کاذب داشته باشند؛ به این معنی که آنقدر دقیق نیستند که بتوان به تنهایی به آنها اعتماد کرد.
در واقع آنها میتوانند حملات شناخته شده را به سرعت شناسایی و متوقف کنند، اما درعینحال ممکن است هنگام مواجهه با تهدیدات جدیدی مثل حملات به اصطلاح «روز صفر» که نسبت به حملات قبلی متفاوت هستند، دچار مشکل میشوند.
کارشناسان هشدار میدهند که با وجود بالا گرفتن هیاهوی هوش مصنوعی در بخش فناوری، متخصصان سایبری باید آن را با احتیاط به کار گیرند و برای مثال استانداردهای مربوط به حفظ حریم خصوصی و حفاظت از دادهها را حفظ کنند.
بر اساس دادههای آزمایشگاه Netskope، در مجموعهها و سازمانهای بزرگ، دادههای حساس توسط کارکنان در قالب پرسشهایی از هوش مصنوعی میکنند، به شکل روزانه فاش میشود؛ امری که میتواند کار را برای هکرها راحت کند.
همچنین استیو استون، رئیس آزمایشگاهRubrik Zero در گروه امنیت داده Rubrik، به ظهور بعضی چتباتهای هوش مصنوعی اشاره میکند که برای استفاده هکرها اختصاصیسازی شدهاند، مانند FraudGPT و WormGPT. این رباتها به گونهای طراحی شدهاند که حتی میتوانند «افراد دارایِ حداقل مهارتهای فنی» را قادر به انجام حملات سایبری پیچیده کنند.
بعضی از هکرها از ابزارهای هوش مصنوعی برای طراحی و اجرای کلاهبرداریها از نوع «مهندسی اجتماعی» در مقیاس بالا و به شکلی هدفمندتر استفاده میکنند. به گفته مکس هاینمایر، مدیر محصول شرکت Darktrace که یک شرکت امنیت سایبری با تمرکز بر ابزارهای هوش مصنوعی است، پس از معرفی چتجیپیتی و از ژانویه تا فوریه 2023، حملات جدید مهندسی اجتماعی ۱۳۵ درصد افزایش داشته است.
او میگوید: «سال ۲۰۲۴ نشان خواهد داد که بازیگران حرفهایتری مانند گروههای سایبری پیشرفته (APTs)، هکرهای دولتی و گروههای باجافزاری تا چه حد موفق به بهرهگیری از هوش مصنوعی شدهاند. تأثیری که هوش مصنوعی خواهد گذاشت این است که حملات سریعتر، گستردهتر، شخصیسازیشدهتر و هوشمندانهتر خواهند شد و کاربران در زمان کمتری فریب مهاجمان را خواهند خورد».
با این وجود، بسیاری از کارشناسان سایبری خوشبین هستند که این فناوری بهطور کلی برای متخصصان سایبری یک موهبت خواهد بود. ونبلز میگوید: «در نهایت این مدافعان سیستمها هستند که دست بالا را دارند، زیرا ما مالک این فناوری هستیم و به همین خاطر میتوانیم توسعه آن را با در نظر گرفتن موارد استفاده خاص جهتدهی کنیم. در اصل، ما این امتیاز را داریم که در زمین خودمان عمل میکنیم و قصد داریم از این مزیت بهطور کامل استفاده کنیم».