چارچوب ایمنی هوش مصنوعی گوگل از سازمانها میخواهد شش ایده را برای برقراری امنیت هوش مصنوعی به کار بگیرند.
به گزارش گرداب به نقل از آکسیوس، این چارچوب مفهومی منتشرشده توسط گوگل میتواند به شرکتها کمک کند که سامانههای هوش مصنوعی را در برابر هکرها مقاومسازی کند و جلوی دستکاری شدن الگوهای هوش مصنوعی یا سرقت دادههای الگوهای تمریندادهشده را بگیرد.
با ظهور فناوریهای جدید دیجیتال، امنیت سایبری و حریم شخصی دادهها به دغدغه اصلی کارشناسان درباره مصرفکنندگان و کسبوکارها تبدیل میشود. بهطور مثال در شبکههای اجتماعی کاربران مشتاق به برقراری ارتباط با یکدیگر هستند، ولی اهمیت زیادی نمیدهند که دادههای کاربران چطور جمعآوری میشود، به اشتراک گذاشته میشود یا حفاظت میشود.
گوگل نگران است که همین مسئله برای سامانههای هوش مصنوعی نیز رخ دهد و با رواج شرکتها در این حوزه و بهکارگیری این الگوها در جریان کار، امنیت دادهها در نظر گرفته نشود.
مدیر امنیت سایبری گوگل کلاود میگوید: «ما میخواهیم مردم به یاد داشته باشند که خطرات هوش مصنوعی میتواند به وسیله انجام این کارهای ساده مدیریت شود».
چهارچوب ایمنی هوش مصنوعی گوگل از سازمانها میخواهد شش ایده زیر را به کار بگیرند:
- ارزیابی کنند که کدام ابزارهای امنیتی موجود به سادگی میتواند بر روی سامانههای هوش مصنوعی نیز گسترش پیدا کند. (بهطور مثال رمزگذاری داده).
- تحقیقات اطلاعات خطر موجود گسترش پیدا کند و خطرات مشخصی که سامانههای هوش مصنوعی را هدف قرار میدهد در آن گنجانده شود.
- اتوماسیون در برنامههای دفاع سایبری شرکت اتخاذ شود که به هر اتفاق غیرمعمول در برابر سامانههای هوش مصنوعی سریع واکنش نشان میدهد.
- بازبینیهای منظم از ابزارهای امنیتی در حوزه الگوهای هوش مصنوعی انجام شود.
- بهطور مداوم سامانههای هوش مصنوعی از طریق آزمایشهایی چون تست نفوذ بررسی شود و براساس یافتههای این آزمونها تغییراتی ایجاد شود.
- در آخر گروهی ساخته شود که خطرات مرتبط با هوش مصنوعی را میفهمند تا بتوانند در این تصمیمگیری که آیا سازمان خطر به کارگیری از هوش مصنوعی را در راهبرد کلی خود بگنجاند، کمک کنند.