پرونده / خطرات امنیتی چت جی‌پی‌تی

پرونده / خطرات امنیتی چت جی‌پی‌تی
تاریخ انتشار : ۲۵ اسفند ۱۴۰۱

چت جی‌پی‌تی جدیدترین بات مکالمه مبتنی بر هوش مصنوعی است که برای اولین بار در نوامبر ۲۰۲۲ توسط شرکت مجموعه OpenAI ارائه شد. این ابزار هوش مصنوعی بر اساس مدل زبان GPT توسعه داده شده است که ترنسفورمر تولیدگر از پیش آموزش دیده که داده‌های اینترنتی را دریافت می‌کند و برای انجام کار‌های مختلف، آموزش داده می‌شود.

به گزارش گرداب، مجموعه OpenAI در گذشته با ارائه ابزار‌هایی از جمله Dall-E (تبدیل متن به تصویر) و Lensa (تبدیل سلفی‌ها به سلفی پرتره‌های برجسته با الهام از همه چیز، از علمی تخیلی گرفته تا انیمیشن) توجه‌ها را به خود جلب کرده بود. اما این بار با ارائه رباتی مکالمه محور مبتنی بر هوش مصنوعی که می‌تواند پاسخ‌هایی مشابه به انسان به درخواست کاربر ایجاد کند، باعث شگفتی افراد زیادی در سراسر دنیا شد.

چت جی پی تی چه ویژگی‌هایی دارد؟

ویژگی که این چت‌بات را منحصر به فرد می‌کند توانایی آن در ارائه پاسخ‌های شبیه انسان است به لطف حجم زیادی از داده‌هایی که توسط آن‌ها آموزش دیده است. یکی دیگر از قابلیت‌های متمایز این بات توانایی آن در ثبت و ضبط پیام‌های قبلی کاربر در یک مکالمه و استفاده از آن برای شکل‌دهی پاسخ‌های بعدی در هنگام گفتگو است.

تا‌بحال هیچ برنامه هوش مصنوعی مولد نتوانسته به محبوبیت ChatGPT دست یابد.
پس از ارائه این چت‌بات غول‌های فناوری و همچنین کشور‌های مختلف دست به طراحی و ارائه یک چت‌بت مکالمه محور زدند. کشور چین چت‌بات خود با نام Ernie Bot که توسط غول فناوری چینی بایدو ساخته شده است را در ماه گذشته ارائه کرد.

طبق توئیت ۵ دسامبر آلتمن، با گذشت ۵ روز از انتشار چت بات، ۱ میلیون کاربر در آن ثبت‌نام کردند. ChatGPT تا ماه ژانویه ۱۰۰ میلیون کاربر فعال ماهانه را تنها دو ماه پس از راه اندازی جمع آوری کرد، به همین خاطر به سریع‌ترین برنامه مصرف‌کننده در تاریخ تبدیل شد.

درگیری غول‌های فناوری

مایکروسافت در اواخر ژانویه از یک قرارداد و سرمایه‌گذاری چند میلیارد دلاری بر روی شرکت سازنده چت‌جی‌پی‌تی، OpenAI خبر داد. در حالی که گزارشی از سمافور (Semafor) نشان می‌دهد غول فناوری ردموند، در حال مذاکره برای سرمایه‌گذاری ۱۰ میلیارد دلاری در این شرکت است. مایکروسافت در یک رویداد مطبوعاتی از به‌روزرسانی‌های جدید مبتنی بر هوش مصنوعی برای موتور جستجوی بینگ (Bing) و مرورگر ادج (Edge) خود رونمایی کرد. آلتمن تأیید کرد که مایکروسافت برخی از فناوری‌های زبان OpenAI GPT- را در بینگ گنجانده است.

گوگل پاسخ خود به ChatGPT را نیز با نام Bard AI معرفی کرد. این شرکت قصد دارد در هفته‌های آینده بارد را در جستجوی Google آغاز کند. گفتنی است که ChatGPT یک تهدید مهم در آینده برای گوگل به حساب می‌آید چرا که کاربران به جای مراجعه به ابزار جستجوی گوگل، پرسش و پاسخ‌های خود را از چت‌بات جی‌پی‌تی دنبال کنند.

نواقص و محدودیت‌ها

ChatGPT محدودیت‌هایی نیز دارد. پاسخ‌های این ابزار هوش مصنوعی حاوی محتوا و پاسخ‌های نادرستی باشد. به عنوان مثال، می‌تواند نام‌ها و کتاب‌های تاریخی ساختگی را اختراع کند که وجود ندارند، یا در حل برخی مسائل ریاضی ناکام باشند.

ویل ویلیامز، معاون یادگیری ماشین در استارت‌آپ انگلیسی Speechmatics، گفت: جنبه‌های باز این ابزار‌های هوش مصنوعی همانند یک شمشیر دو لبه است. چرا که از یک سو، سطح بالایی از انعطاف پذیری و روانی بیان در گفتگو‌ها وجود دارد، یعنی گفت‌وگویی جذاب تقریباً در هر موضوعی با این چت بات امکان پذیر است. از سوی دیگر، شما هرگز کاملاً نمی‌دانید چه زمانی مدل با واقعیت تماس برقرار می‌کند و پاسخ می‌دهد نه با اعتماد به نفس بیش از حد و توهم آور.

محدود بودن دانش چت‌جی‌پی‌تی به داده‌های سال ۲۰۲۱ از دومین معایب آن به شمار می‌آید. به گفته‌ی کارشناسان در حال حاضر، هوش مصنوعی مولد هنوز قادر به دستیابی به هوش «عمومی» شبیه انسان نیست. «هوش عمومی مصنوعی» الگوی ایده‌آل جامعه‌ی هوش مصنوعی در نظر گرفته می‌شود و بیشتر به توانایی یک عامل هوشمند برای درک یا یادگیری هر کار فکری و عملی که یک انسان می‌تواند انجام دهد اشاره دارد. اما کارشناسان و متخصصان حوزه‌های مختلف هشدار می‌دهند که نباید امیدواری بیش از اندازه به این ابزار‌های هوش مصنوعی مبتنی بر یادگیری ماشین داشت؛ زیرا که این ابزار‌ها به‌گونه‌ای طراحی نشده‌اند که بتوانند مانند انسان هوشمند باشند.

ابزار‌های یادگیری ماشین مبتنی بر حجم زیادی از داده‌ها و کلان‌داده‌ها هستند و با تحلیل آن و پیدا کردن الگوها، صرفا «محتمل‌ترین» جواب به مسئله را پیدا می‌کنند. اما محتمل‌ترین جواب، لزوماً درست‌ترین جواب نیست. برای اطلاعات بیشتر درباره این چالش به نوشته نوآم چامسکی، متفکر معروف آمریکایی درباره توهم چت‌جی‌پی‌تی رجوع شود.

خطرات امنیتی ChatGPT

اخبار پیشرفت‌های این چت‌بات مبتنی بر هوش مصنوعی دنیای سایبری را تکان داده است، اما خطرات و چالش‌های زیادی نیز دراین‌باره مطرح شده است.
براساس توضیحات محققان امنیت سایبری CyberArk، این چت‌بات می‌تواند بدافزار ایجاد کند.

محققان از این ابزار هوش مصنوعی برای ایجاد کد‌های متفاوت استفاده کردند و دیدند که شناسایی و مقابله با آن کد‌ها برای نرم افزار‌های ضد بدافزار بسیار دشوار است. محققان این مجموعه تعدادی کد به این ابزار آموزش دادند و از او خواستند تا فایل جدیدی را بنویسد و رمزگذاری کند.

با این حال، تفاوتی بین نوع اثبات کار مفهومی انجام شده توسط محققان CyberArk و جهش از اثبات مفهوم به بدافزار واقعی ایجاد شده توسط مجرمان وجود دارد؛ و به نظر می‌رسد که کد مخرب تولید شده توسط ChatGPT ممکن است قبلاً جهش کرده باشد.

در تاریخ ژانویه ۲۰۲۳ محققان Check Point گزارشی مبنی بر اینکه بعضی از کاربران انجمن‌های جرائم سایبری از این چت‌بات برای ایجاد بدافزار استفاده می‌کنند، دریافت کردند. آن‌ها ادعا کردند که خالق این رشته تصاویری از کد پایتون را به اشتراک گذاشته است که ادعا می‌شود توسط ChatGPT ایجاد شده است که انواع فایل‌های رایج مانند فایل‌های Office و PDF را جستجو و آن‌ها را در یک پوشه تصادفی کپی کرده سپس آن پوشه‌ها را فشرده و در یک سرور FTP آپلود می‌کند.

علاوه بر نوشتن کد‌های مخرب، محققان امنیت سایبری نگران استفاده از ChatGPT برای تولید محتوای فیشینگ و معتبر برای استفاده در حملات مهندسی اجتماعی (طیف وسیعی از فعالیت‌های مخرب حاصل از تعاملات انسانی با استفاد از روش فریب دادن کاربران در جهت انجام اشتباهات امنیتی یا دادن اطلاعات حساس استفاده می‌کنند. این بات جعل هویت یک سازمان یا فرد را برای مجرمان سایبری بسیار آسان می‌کند.

در ژانویه ۲۰۲۳ محققان WithSecure آزمایشی را در خصوص این چت بات انجام دادند. آن‌ها از ChatGPT برای تولید ایمیل‌های فیشینگ و نیزه‌فیشینگ با صدای قانع‌کننده، مانند تلاش برای مهندسی اجتماعی یکی از اعضای تیم مالی یک شرکت برای انتقال پول به کلاهبردار، استفاده کردند.

نتیجه‌ها حاکی از این بود که مهارت ایجاد ایمیل‌های فیشینگ متقاعدکننده با ChatGPT در ایجاد اعلان‌ها نهفته است و نمونه‌هایی از اعلان‌های دقیق را ارائه می‌دهد که ایمیل‌های دقیق و سفارشی را ارائه می‌دهند که تشخیص آن‌ها از یک ایمیل واقعی دشوار است.

البته ذکر این نکته حائز اهمیت است که در حال حاضر ChatGPT بر روی محتوای در دسترس عموم در اینترنت آموزش دیده است و هنوز هیچ برنامه نویسی خصوصی نرم‌افزاری برای امکان آموزش ربات چت بر روی محتوای سفارشی وجود ندارد. البته با سفارشی شدن محتوای آن می‌توان انتظار اطلاعات نادرست، فیشینگ و سایر حمله‌ها را به صورت بسیار دقیق‌تر و هدفمندتری داشته باشیم.

از دیگر نگرانی‌های مرتبط به این چت بات محتوای ایجاد شده توسط آن است. پرا که ممکن است پاسخ‌خت بسیار معتبر و درست به نظر برسند و در عین حال کاملا اشتباه باشند.

فناوری «دیپ فیک» که هم ویدئو و هم صدای افراد را شبیه‌سازی می‌کند، بسیار نگران کننده است. شبیه‌سازی کلمات و صدای یک فرد از طریق این ربات هوش مصنوعی خود لایه دیگر یاز تهدید و فریب است.

امنیت سایبری و پاسخ به ChatGPT

با توجه به حملات فیشینگ احتمالی توسط این چت بات، متخصصان سایبری باید نمونه‌های فیشینگ ساخته شده توسط این ربات را شناسایی و به کاربران آموزش دهند. این آموزش می‌تواند شامل نمونه‌های سفارشی (که توسط خود ChatGPT ایجاد شده است) از ایمیل‌هایی که باید به آن‌ها هشدار داده شود، باشد.
پیش از آن که دیر شود باید تمهیدات لازم توسط متخصصان سایبری برای مقابله با این ابزار پیش‌بینی و اجرایی شود چرا که ممکن است این خطرات امنیتی منجر به کشته شدن تعداد زیادی از انسان‌ها شود.