تحقیقات جدید نشان میدهد که ۶% از کارمندان، دادههای حساس را در اختیار هوش مصنوعی مولد مانند چت جیپیتی قرار میدهند.
به گزارش گرداب، فناوری انقلابی ابزارهای هوش مصنوعی مولد مانند چت جیپیتی، خطرات قابل توجهی برای دادههای حساس سازمانها به همراه داشته است.
اما واقعاً تا چه حد در این زمینه اطلاعات داریم؟
در تحقیق جدید انجام شده توسط شرکت امنیتی LayerX، دامنه و ماهیت این خطرات بهتر مشخص میشود. گزارشی با عنوان خطر افشای داده با هوش مصنوعی مولد نکات مهمی را در رابطه با حفاظت از داده ارائه میدهد که ذینفعان میتوانند از آن جهت انجام اقدامات پیشگیرانه بهره ببرند.
آمار مربوط به خطرات چت جیپیتی
این گزارش با تجزیه و تحلیل استفاده از چت جیپیتی و سایر برنامههای هوش مصنوعی مولد در بین ده هزار کارمند، موضوعات اساسی نگرانکننده را مشخص میسازد. یکی از یافتهها این است که ۶% از کارمندان دادههای حساس را در اختیار هوش مصنوعی مولد قرار دادهاند و ۴% هم به صورت هفتگی درگیر این رفتار خطرناک هستند. این رفتارها میتوانند سازمانها را در معرض خطر نقض داده قرار دهند.
این گزارش به سؤالات مربوط به ارزیابی خطرات مهم از جمله دامنه واقعی استفاده از هوش مصنوعی مولد در میان نیروهای کاری شرکت، سهم نسبی ثبت داده به هنگام استفاده، تعداد کارکنانی که دادههای حساس را در اختیار هوش مصنوعی مولد قرار دادهاند و چند بار این عمل را تکرار کردهاند، بخشهایی از سازمان که بیشترین استفاده را از هوش مصنوعی مولد میبرند و انواع دادههای حساسی که از طریق ثبت کارمندان در دسترس این ابزارها قرار میگیرند میپردازد.
میزان استفاده و قرار گرفتن داده در معرض هوش مصنوعی در حال افزایش است
یکی از نکات مهم، افزایش ۴۴ درصدی استفاده از هوش مصنوعی مولد طی سه ماه گذشته است. علیرغم این رشد، در حال حاضر فقط به طور میانگین ۱۹% از کارکنان یک سازمان به ابزارهای هوش مصنوعی دسترسی دارند. با این حال، خطرات مربوط به استفاده از هوش مصنوعی مولد حتی در همین حد هم قابل توجه است.
در این گزارش، موضوع رایج بودن افشای دادههای حساس برجسته گردیده است. از میان کارکنانی که از هوش مصنوعی مولد استفاده میکنند ۱۵% دادهها را ثبت کردهاند و ۴% به صورت هفتگی در این عمل دخیل بوده و تنها ۰.۷% در طول یک هفته چندین بار این عمل را تکرار کردهاند. تکرر این عمل نشان میدهد که نیاز فوری به اجرایی شدن اقدامات حفاظت از داده قوی برای جلوگیری از افشای دادهها وجود دارد.
از بین انواع دادهها، کد منبع، اطلاعات مربوط به کسب و کار داخلی و اطلاعات هویتی (PII) سه نوع اصلی دادههای حساسی هستند که به ثبت میرسند و غالباً کارکنان بخشهای تحقیق و توسعه، فروش و بازاریابی و امور مالی انجام میدهند.
نحوه بهرهمندی از اطلاعات موجود در گزارش
مسئولان و ذینفعان حفاظت از دادهها میتوانند از موضوعات ارائه شده در گزارش برای ایجاد برنامههای مؤثر حفاظت از داده در برابر هوش مصنوعی مولد استفاده کنند. در عصر توسعه هوش مصنوعی مولد لازم است که الگوهای استفاده از هوش مصنوعی مولد در یک سازمان مشاهده و ارزیابی شوند و اطمینان حاصل شود که اقدامات و ابزارهای موجود قادر به حفظ امنیت دادهها هستند. در غیر این صورت، سازمانها باید روشی را دنبال کنند که شامل نظارت مستمر، تجزیه و تحلیل خطرات و پیگیری بیدرنگ هر یک از اعمال و رفتارهای کاربران به هنگام استفاده از مرورگر شود.
منبع: هکرنیوز