ماه پیش گزارش شد که چند کارمند سامسونگ از طریق چتبات شرکت اوپنایآی باعث افشای دادههای حساس شرکت شدند. این ماجرا زنگ خطری برای همه شرکتها و سازمانهایی است که دوست ندارند دادههایشان بیاعتبار شود.
به گزارش گرداب، در ابتدای ماه آوریل (فروردین 1402) گفته شد که چندین کارمند شرکت سامسونگ ناخواسته دادههای حساس شرکت را در لو دادند.
اطلاعاتی که این کارمندان غول فناوری کره جنوبی لو دادند شامل کد منبع نرمافزاری بوده است که وظیفه اندازهگیری و ارزیابی تجهیزات نیمههادی را داشته است. اطلاعاتی بسیار مهم برای شرکت سامسونگ که این کارمندان بیدقت، احتمالا از روی کنجکاوی برای فهمیدن تواناییهای هوش مصنوعی باعث افشای آن شدند.
وقتی شرکت اوپنایآی در بخش پرسشهای پرتکرار سایت خود به صراحت به کاربران میگوید «هیچ اطلاعات حساسی را در گفتگوهای خود به اشتراک نگذارید»، نشان از این دارد که سودمند بودن چتجیپیتی باعث نمیشود مشکلات امنیتی نداشته باشد.
با وجود این که شرکت سامسونگ استفاده از ابزارهای هوش مصنوعی مولد را برای کارمندان خود ممنوع کرد و کارمندان متخلف را به اخراج و یا لغو قرارداد تهدید کرد، اما باید گفت که خطر نشت رازها و اسناد محرمانه این شرکت و سایر شرکتها از طریق چتبات هوش مصنوعی هنوز وجود دارد.
از دست رفتن و نشت آنها به خصوص وقتی که پای باتی مثل چتجیپیتی در میان باشد، نامی مخصوص خود دارد: افشای هوش مصنوعی گفتگومحور. این نوع افشای داده یکی از چالشهای اصلی هوش مصنوعی و الگوهای زبانی بزرگ است.
چتجیپیتی براساس رابط برنامهنویسی کاربردی (API) امکان گفتگو را برقرار میسازد که این به شرکتها و کارمندان اجازه میدهد که به خدمت هوش مصنوعی دسترسی داشته باشند و همچنین دادههای حساس را به او بگویند. از آنجا که الگوهای زبانی بزرگ اساساً برای تولید پاسخ به سوالات طراحی شدهاند و با استفاده از دادههایی که به آنها داده میشود، یادگیری دارند، ممکن است ناخواسته اطلاعات محرمانه را افشا کنند.
کنترل خروجی
یک راه برای جلوگیری از این که چتجیپیتی شرکت اوپنایآی، یا بارد شرکت گوگل یا ارنی بات شرکت بایدو اطلاعات حساسی که از سوی کارمندان بیدقت آموخته را جایی بازگو نکند این است که آنچه میتوانند بگویند و آنچه نمیتوانند بگویند را محدود کرد.
بعضی افراد و نهادها تلاش کردند در این مسیر حرکت کنند و از شرکت اوپنایآی درخواست کردند که یا خروجی چتجیپیتی را محدود کنند یا اساسا چتبات را حذف کند. اما بعضی کارشناسان معتقدند مسئله فقط به چت جیپیتی یا سایر الگوهای زبانی بزرگ شناختهشده محدود نیست. به زودی نسخههای منبع باز محبوبتر خواهند شد و این بدین معناست که محدود کردن خروجی آنها مسئلهای به غایت دشوار خواهد بود.
راه موفقیتآمیزتر این خواهد بود که شرکتها نظارت کنند که کارمندان چه اطلاعاتی به هوش مصنوعی میدهد. سلسله مراتب باید تعریف شود و مشخص شود که چه کسی باید ارتباطات با ابزارهای هوش مصنوعی را تعریف کند.
سازمانها همچنین باید روش سامسونگ را پیگیری کنند و کارمندان خود را از چت کردن با ابزارهای هوش مصنوعی مولد منع کنند. یک کارشناس در این رابطه میگوید: «ممنوع کردن استفاده از چتجیپیتی شاید به نظر پاسخ درستی برسد، اما مشکل بزرگتر را حل نخواهد کرد. چت جیپیتی فقط یک ابزار هوش مصنوعی مولد است که در طی سالهای آینده به بازارکار عرضه خواهد شد». ممنوع کردن چتجیپیتی باید به معنای در نظر گرفتن بزرگی مشکل باشد و گرنه با این ممنوعیت چیزی حل نخواهد شد.
نظارت بر دسترسیهای هوش مصنوعی
رویکرد دیگر پس در محدود کردن ورودی نهفته است. شرکتها و سازمانها باید بر کنترل و نظارت بر استفاده از هوش مصنوعی اقدام کنند و نظارت کنند که چه نوع دادهای به ابزارهای هوش مصنوعی داده میشود.
سازمانها باید مشخص کنند که چه کسانی به این چتباتها دسترسی داشته باشند و چه کسانی نداشته باشند. به بیان دیگر همه سازمانها باید از ممنوعیت سراسری و یا دسترسی سراسری همه کارمندان خود به این ابزارها اجتناب کنند.
دادههای هر سیستم از قبیل پردازش، ذخیرهسازی و یا تولید اگر به یک ابزار هوش مصنوعی متصل شود یا در آن افشا شود، در معرض خطر قرار خواهد گرفت.
هر چه که چتجیپیتی و رقبای آن قدرت بیشتری بگیرند، احتمال لو رفتن دادههای حساس بیشتر میشود. باید در نظر گرفت که پیش از این چتجیپیتی نشان داد که دارای نواقص امنیتی است و بخشهایی از گفتگوهای کاربران به همراه اطلاعات شخصی آنها لو رفت و در نتیجه این ماجرا بود که رگولاتور ایتالیایی به مسئله ورود کرد و این ابزار را مسدود کرد و قانونگذاران آلمانی و سایر کشورهای اروپایی نیز به این مسئله ورود خواهند کرد. با وجود این که ایتالیا پس از آن که درخواستهایش پذیرفته شد، مسدودیت چتجیپیتی را برداشت اما هنوز خطر افشای دادههای حساسی که شما با این چتبات به اشتراک میگذارید، وجود دارد.