Gerdab.IR | گرداب

تحقیقات جدید نشان می‌دهد؛

شش درصد کارمندان داده‌های حساس را در اختیار هوش مصنوعی قرار می‌دهند

شش درصد کارمندان داده‌های حساس را در اختیار هوش مصنوعی قرار می‌دهند
تاریخ انتشار : ۲۰ تير ۱۴۰۲

تحقیقات جدید نشان می‌دهد که ۶% از کارمندان، داده‌های حساس را در اختیار هوش مصنوعی مولد مانند چت جی‌پی‌تی قرار می‌دهند.

به گزارش گرداب، فناوری انقلابی ابزار‌های هوش مصنوعی مولد مانند چت جی‌پی‌تی، خطرات قابل توجهی برای داده‌های حساس سازمان‌ها به همراه داشته است.

اما واقعاً تا چه حد در این زمینه اطلاعات داریم؟

در تحقیق جدید انجام شده توسط شرکت امنیتی LayerX، دامنه و ماهیت این خطرات بهتر مشخص می‌شود. گزارشی با عنوان خطر افشای داده با هوش مصنوعی مولد نکات مهمی را در رابطه با حفاظت از داده ارائه می‌دهد که ذینفعان می‌توانند از آن جهت انجام اقدامات پیشگیرانه بهره ببرند.

آمار مربوط به خطرات چت جی‌پی‌تی

این گزارش با تجزیه و تحلیل استفاده از چت جی‌پی‌تی و سایر برنامه‌های هوش مصنوعی مولد در بین ده هزار کارمند، موضوعات اساسی نگران‌کننده را مشخص می‌سازد. یکی از یافته‌ها این است که ۶% از کارمندان داده‌های حساس را در اختیار هوش مصنوعی مولد قرار داده‌اند و ۴% هم به صورت هفتگی درگیر این رفتار خطرناک هستند. این رفتار‌ها می‌توانند سازمان‌ها را در معرض خطر نقض داده قرار دهند.

این گزارش به سؤالات مربوط به ارزیابی خطرات مهم از جمله دامنه واقعی استفاده از هوش مصنوعی مولد در میان نیرو‌های کاری شرکت، سهم نسبی ثبت داده به هنگام استفاده، تعداد کارکنانی که داده‌های حساس را در اختیار هوش مصنوعی مولد قرار داده‌اند و چند بار این عمل را تکرار کرده‌اند، بخش‌هایی از سازمان که بیش‌ترین استفاده را از هوش مصنوعی مولد می‌برند و انواع داده‌های حساسی که از طریق ثبت کارمندان در دسترس این ابزار‌ها قرار می‌گیرند می‌پردازد.
میزان استفاده و قرار گرفتن داده در معرض هوش مصنوعی در حال افزایش است

یکی از نکات مهم، افزایش ۴۴ درصدی استفاده از هوش مصنوعی مولد طی سه ماه گذشته است. علی‌رغم این رشد، در حال حاضر فقط به طور میانگین ۱۹% از کارکنان یک سازمان به ابزار‌های هوش مصنوعی دسترسی دارند. با این حال، خطرات مربوط به استفاده از هوش مصنوعی مولد حتی در همین حد هم قابل توجه است.
در این گزارش، موضوع رایج بودن افشای داده‌های حساس برجسته گردیده است. از میان کارکنانی که از هوش مصنوعی مولد استفاده می‌کنند ۱۵% داده‌ها را ثبت کرده‌اند و ۴% به صورت هفتگی در این عمل دخیل بوده و تنها ۰.۷% در طول یک هفته چندین بار این عمل را تکرار کرده‌اند. تکرر این عمل نشان می‌دهد که نیاز فوری به اجرایی شدن اقدامات حفاظت از داده قوی برای جلوگیری از افشای داده‌ها وجود دارد.

از بین انواع داده‌ها، کد منبع، اطلاعات مربوط به کسب و کار داخلی و اطلاعات هویتی (PII) سه نوع اصلی داده‌های حساسی هستند که به ثبت می‌رسند و غالباً کارکنان بخش‌های تحقیق و توسعه، فروش و بازاریابی و امور مالی انجام می‌دهند.

نحوه بهره‌مندی از اطلاعات موجود در گزارش

مسئولان و ذینفعان حفاظت از داده‌ها می‌توانند از موضوعات ارائه شده در گزارش برای ایجاد برنامه‌های مؤثر حفاظت از داده در برابر هوش مصنوعی مولد استفاده کنند. در عصر توسعه هوش مصنوعی مولد لازم است که الگو‌های استفاده از هوش مصنوعی مولد در یک سازمان مشاهده و ارزیابی شوند و اطمینان حاصل شود که اقدامات و ابزار‌های موجود قادر به حفظ امنیت داده‌ها هستند. در غیر این صورت، سازمان‌ها باید روشی را دنبال کنند که شامل نظارت مستمر، تجزیه و تحلیل خطرات و پیگیری بی‌درنگ هر یک از اعمال و رفتار‌های کاربران به هنگام استفاده از مرورگر شود.

منبع: هکرنیوز