زنگ خطری که باید شنید

خطرات امنیتی چت‌جی‌پی‌تی برای سازمان‌ها و شرکت‌ها

خطرات امنیتی چت‌جی‌پی‌تی برای سازمان‌ها و شرکت‌ها
تاریخ انتشار : ۱۹ ارديبهشت ۱۴۰۲

ماه پیش گزارش شد که چند کارمند سامسونگ از طریق چت‌بات شرکت اوپن‌ای‌آی باعث افشای داده‌های حساس شرکت شدند. این ماجرا زنگ خطری برای همه شرکت‌ها و سازمان‌هایی است که دوست ندارند داده‌هایشان بی‌اعتبار شود.

به گزارش گرداب، در ابتدای ماه آوریل (فروردین 1402) گفته شد که چندین کارمند شرکت سامسونگ ناخواسته داده‌های حساس شرکت را در لو دادند.

اطلاعاتی که این کارمندان غول فناوری کره جنوبی لو دادند شامل کد منبع نرم‌‌افزاری بوده است که وظیفه اندازه‌گیری و ارزیابی تجهیزات نیمه‌هادی را داشته است. اطلاعاتی بسیار مهم برای شرکت سامسونگ که این کارمندان بی‌دقت، احتمالا از روی کنجکاوی برای فهمیدن توانایی‌های هوش مصنوعی باعث افشای آن شدند. 

وقتی شرکت اوپن‌ای‌آی در بخش پرسش‌های پرتکرار سایت خود به صراحت به کاربران می‌گوید «هیچ اطلاعات حساسی را در گفتگوهای خود به اشتراک نگذارید»، نشان از این دارد که سودمند بودن چت‌جی‌پی‌تی باعث نمی‌شود مشکلات امنیتی نداشته باشد.

با وجود این که شرکت سامسونگ استفاده از ابزارهای هوش مصنوعی مولد را برای کارمندان خود ممنوع کرد و کارمندان متخلف را به اخراج و یا لغو قرارداد تهدید کرد، اما باید گفت که خطر نشت رازها و اسناد محرمانه این شرکت‌ و سایر شرکت‌ها از طریق چت‌بات هوش مصنوعی هنوز وجود دارد.

از دست رفتن و نشت آنها به خصوص وقتی که پای باتی مثل چت‌جی‌پی‌تی در میان باشد، نامی مخصوص خود دارد: افشای هوش مصنوعی گفتگومحور. این نوع افشای داده یکی از چالش‌های اصلی هوش مصنوعی و الگوهای زبانی بزرگ است.

چت‌جی‌پی‌تی براساس رابط برنامه‌نویسی کاربردی (API) امکان گفتگو را برقرار می‌سازد که این به شرکت‌ها و کارمندان اجازه می‌دهد که به خدمت هوش مصنوعی دسترسی داشته باشند و همچنین داده‌های حساس را به او بگویند. از آنجا که الگوهای زبانی بزرگ اساساً برای تولید پاسخ به سوالات طراحی شده‌اند و با استفاده از داده‌هایی که به آنها داده می‌شود، یادگیری دارند، ممکن است ناخواسته اطلاعات محرمانه را افشا کنند. 

کنترل خروجی
یک راه برای جلوگیری از این که چت‌جی‌پی‌تی شرکت اوپن‌ای‌آی، یا بارد شرکت گوگل یا ارنی بات شرکت بایدو اطلاعات حساسی که از سوی کارمندان بی‌دقت آموخته را جایی بازگو نکند این است که آنچه می‌توانند بگویند و آنچه نمی‌توانند بگویند را محدود کرد.

بعضی افراد و نهادها تلاش کردند در این مسیر حرکت کنند و از شرکت اوپن‌ای‌آی درخواست کردند که یا خروجی چت‌جی‌پی‌تی را محدود کنند یا اساسا چت‌بات را حذف کند. اما بعضی کارشناسان معتقدند مسئله فقط به چت جی‌پی‌تی یا سایر الگوهای زبانی بزرگ شناخته‌شده محدود نیست. به زودی نسخه‌های منبع باز محبوب‌تر خواهند شد و این بدین معناست که محدود کردن خروجی آنها مسئله‌ای به غایت دشوار خواهد بود.

راه موفقیت‌آمیزتر این خواهد بود که شرکت‌ها نظارت کنند که کارمندان چه اطلاعاتی به هوش مصنوعی می‌دهد. سلسله مراتب باید تعریف شود و مشخص شود که چه کسی باید ارتباطات با ابزارهای هوش مصنوعی را تعریف کند.

سازمانها همچنین باید روش سامسونگ را پیگیری کنند و کارمندان خود را از چت کردن با ابزارهای هوش مصنوعی مولد منع کنند. یک کارشناس در این رابطه می‌گوید: «ممنوع کردن استفاده از چت‌جی‌پی‌تی شاید به نظر پاسخ درستی برسد، اما مشکل بزرگتر را حل نخواهد کرد. چت جی‌پی‌تی فقط یک ابزار هوش مصنوعی مولد است که در طی سالهای آینده به بازارکار عرضه خواهد شد». ممنوع کردن چت‌جی‌پی‌تی باید به معنای در نظر گرفتن بزرگی مشکل باشد و گرنه با این ممنوعیت چیزی حل نخواهد شد.

نظارت بر دسترسی‌های هوش مصنوعی
رویکرد دیگر پس در محدود کردن ورودی نهفته است. شرکت‌ها و سازمانها باید بر کنترل و نظارت بر استفاده از هوش مصنوعی اقدام کنند و نظارت کنند که چه نوع داده‌ای به ابزارهای هوش مصنوعی داده می‌شود.

سازمان‌ها باید مشخص کنند که چه کسانی به این چت‌بات‌ها دسترسی داشته باشند و چه کسانی نداشته باشند. به بیان دیگر همه سازمانها باید از ممنوعیت سراسری و یا دسترسی سراسری همه کارمندان خود به این ابزارها اجتناب کنند. 

داده‌های هر سیستم از قبیل پردازش، ذخیره‌سازی و یا تولید اگر به یک ابزار هوش مصنوعی متصل شود یا در آن افشا شود، در معرض خطر قرار خواهد گرفت. 

هر چه که چت‌جی‌پی‌تی و رقبای آن قدرت بیشتری بگیرند، احتمال لو رفتن داده‌های حساس بیشتر می‌شود. باید در نظر گرفت که پیش از این چت‌جی‌پی‌تی نشان داد که دارای نواقص امنیتی است و بخش‌هایی از گفتگوهای کاربران به همراه اطلاعات شخصی آنها لو رفت و در نتیجه این ماجرا بود که رگولاتور ایتالیایی به مسئله ورود کرد و این ابزار را مسدود کرد و قانون‌گذاران آلمانی و سایر کشورهای اروپایی نیز به این مسئله ورود خواهند کرد. با وجود این که ایتالیا پس از آن که درخواست‌هایش پذیرفته شد، مسدودیت چت‌جی‌پی‌تی را برداشت اما هنوز خطر افشای داده‌های حساسی که شما با این چت‌بات به اشتراک می‌گذارید، وجود دارد.