توصیه گوگل به سازمان‌ها در برقراری امنیت هوش مصنوعی

توصیه گوگل به سازمان‌ها در برقراری امنیت هوش مصنوعی
تاریخ انتشار : ۲۳ خرداد ۱۴۰۲

چارچوب ایمنی هوش مصنوعی گوگل از سازمان‌ها می‌خواهد شش ایده را برای برقراری امنیت هوش مصنوعی به کار بگیرند.

به گزارش گرداب به نقل از آکسیوس، این چارچوب مفهومی منتشرشده توسط گوگل می‌تواند به شرکت‌ها کمک کند که سامانه‌های هوش مصنوعی را در برابر هکر‌ها مقاوم‌سازی کند و جلوی دستکاری شدن الگو‌های هوش مصنوعی یا سرقت داده‌های الگو‌های تمرین‌داده‌شده را بگیرد.

با ظهور فناوری‌های جدید دیجیتال، امنیت سایبری و حریم شخصی داده‌ها به دغدغه اصلی کارشناسان درباره مصرف‌کنندگان و کسب‌وکار‌ها تبدیل می‌شود. به‌طور مثال در شبکه‌های اجتماعی کاربران مشتاق به برقراری ارتباط با یکدیگر هستند، ولی اهمیت زیادی نمی‌دهند که داده‌های کاربران چطور جمع‌آوری می‌شود، به اشتراک گذاشته می‌شود یا حفاظت می‌شود.

گوگل نگران است که همین مسئله برای سامانه‌های هوش مصنوعی نیز رخ دهد و با رواج شرکت‌ها در این حوزه و به‌کارگیری این الگو‌ها در جریان کار، امنیت داده‌ها در نظر گرفته نشود.

مدیر امنیت سایبری گوگل کلاود می‌گوید: «ما می‌خواهیم مردم به یاد داشته باشند که خطرات هوش مصنوعی می‌تواند به وسیله انجام این کار‌های ساده مدیریت شود».

چهارچوب ایمنی هوش مصنوعی گوگل از سازمان‌ها می‌خواهد شش ایده زیر را به کار بگیرند:

- ارزیابی کنند که کدام ابزار‌های امنیتی موجود به سادگی می‌تواند بر روی سامانه‌های هوش مصنوعی نیز گسترش پیدا کند. (به‌طور مثال رمزگذاری داده).

- تحقیقات اطلاعات خطر موجود گسترش پیدا کند و خطرات مشخصی که سامانه‌های هوش مصنوعی را هدف قرار می‌دهد در آن گنجانده شود.

- اتوماسیون در برنامه‌های دفاع سایبری شرکت اتخاذ شود که به هر اتفاق غیرمعمول در برابر سامانه‌های هوش مصنوعی سریع واکنش نشان می‌دهد.

- بازبینی‌های منظم از ابزار‌های امنیتی در حوزه الگو‌های هوش مصنوعی انجام شود.

- به‌طور مداوم سامانه‌های هوش مصنوعی از طریق آزمایش‌هایی چون تست نفوذ بررسی شود و براساس یافته‌های این آزمون‌ها تغییراتی ایجاد شود.

- در آخر گروهی ساخته شود که خطرات مرتبط با هوش مصنوعی را می‌فهمند تا بتوانند در این تصمیم‌گیری که آیا سازمان خطر به کارگیری از هوش مصنوعی را در راهبرد کلی خود بگنجاند، کمک کنند.