چت جیپیتی جدیدترین بات مکالمه مبتنی بر هوش مصنوعی است که برای اولین بار در نوامبر ۲۰۲۲ توسط شرکت مجموعه OpenAI ارائه شد. این ابزار هوش مصنوعی بر اساس مدل زبان GPT توسعه داده شده است که ترنسفورمر تولیدگر از پیش آموزش دیده که دادههای اینترنتی را دریافت میکند و برای انجام کارهای مختلف، آموزش داده میشود.
به گزارش گرداب، مجموعه OpenAI در گذشته با ارائه ابزارهایی از جمله Dall-E (تبدیل متن به تصویر) و Lensa (تبدیل سلفیها به سلفی پرترههای برجسته با الهام از همه چیز، از علمی تخیلی گرفته تا انیمیشن) توجهها را به خود جلب کرده بود. اما این بار با ارائه رباتی مکالمه محور مبتنی بر هوش مصنوعی که میتواند پاسخهایی مشابه به انسان به درخواست کاربر ایجاد کند، باعث شگفتی افراد زیادی در سراسر دنیا شد.
چت جی پی تی چه ویژگیهایی دارد؟
ویژگی که این چتبات را منحصر به فرد میکند توانایی آن در ارائه پاسخهای شبیه انسان است به لطف حجم زیادی از دادههایی که توسط آنها آموزش دیده است. یکی دیگر از قابلیتهای متمایز این بات توانایی آن در ثبت و ضبط پیامهای قبلی کاربر در یک مکالمه و استفاده از آن برای شکلدهی پاسخهای بعدی در هنگام گفتگو است.
تابحال هیچ برنامه هوش مصنوعی مولد نتوانسته به محبوبیت ChatGPT دست یابد.
پس از ارائه این چتبات غولهای فناوری و همچنین کشورهای مختلف دست به طراحی و ارائه یک چتبت مکالمه محور زدند. کشور چین چتبات خود با نام Ernie Bot که توسط غول فناوری چینی بایدو ساخته شده است را در ماه گذشته ارائه کرد.
طبق توئیت ۵ دسامبر آلتمن، با گذشت ۵ روز از انتشار چت بات، ۱ میلیون کاربر در آن ثبتنام کردند. ChatGPT تا ماه ژانویه ۱۰۰ میلیون کاربر فعال ماهانه را تنها دو ماه پس از راه اندازی جمع آوری کرد، به همین خاطر به سریعترین برنامه مصرفکننده در تاریخ تبدیل شد.
درگیری غولهای فناوری
مایکروسافت در اواخر ژانویه از یک قرارداد و سرمایهگذاری چند میلیارد دلاری بر روی شرکت سازنده چتجیپیتی، OpenAI خبر داد. در حالی که گزارشی از سمافور (Semafor) نشان میدهد غول فناوری ردموند، در حال مذاکره برای سرمایهگذاری ۱۰ میلیارد دلاری در این شرکت است. مایکروسافت در یک رویداد مطبوعاتی از بهروزرسانیهای جدید مبتنی بر هوش مصنوعی برای موتور جستجوی بینگ (Bing) و مرورگر ادج (Edge) خود رونمایی کرد. آلتمن تأیید کرد که مایکروسافت برخی از فناوریهای زبان OpenAI GPT- را در بینگ گنجانده است.
گوگل پاسخ خود به ChatGPT را نیز با نام Bard AI معرفی کرد. این شرکت قصد دارد در هفتههای آینده بارد را در جستجوی Google آغاز کند. گفتنی است که ChatGPT یک تهدید مهم در آینده برای گوگل به حساب میآید چرا که کاربران به جای مراجعه به ابزار جستجوی گوگل، پرسش و پاسخهای خود را از چتبات جیپیتی دنبال کنند.
نواقص و محدودیتها
ChatGPT محدودیتهایی نیز دارد. پاسخهای این ابزار هوش مصنوعی حاوی محتوا و پاسخهای نادرستی باشد. به عنوان مثال، میتواند نامها و کتابهای تاریخی ساختگی را اختراع کند که وجود ندارند، یا در حل برخی مسائل ریاضی ناکام باشند.
ویل ویلیامز، معاون یادگیری ماشین در استارتآپ انگلیسی Speechmatics، گفت: جنبههای باز این ابزارهای هوش مصنوعی همانند یک شمشیر دو لبه است. چرا که از یک سو، سطح بالایی از انعطاف پذیری و روانی بیان در گفتگوها وجود دارد، یعنی گفتوگویی جذاب تقریباً در هر موضوعی با این چت بات امکان پذیر است. از سوی دیگر، شما هرگز کاملاً نمیدانید چه زمانی مدل با واقعیت تماس برقرار میکند و پاسخ میدهد نه با اعتماد به نفس بیش از حد و توهم آور.
محدود بودن دانش چتجیپیتی به دادههای سال ۲۰۲۱ از دومین معایب آن به شمار میآید. به گفتهی کارشناسان در حال حاضر، هوش مصنوعی مولد هنوز قادر به دستیابی به هوش «عمومی» شبیه انسان نیست. «هوش عمومی مصنوعی» الگوی ایدهآل جامعهی هوش مصنوعی در نظر گرفته میشود و بیشتر به توانایی یک عامل هوشمند برای درک یا یادگیری هر کار فکری و عملی که یک انسان میتواند انجام دهد اشاره دارد. اما کارشناسان و متخصصان حوزههای مختلف هشدار میدهند که نباید امیدواری بیش از اندازه به این ابزارهای هوش مصنوعی مبتنی بر یادگیری ماشین داشت؛ زیرا که این ابزارها بهگونهای طراحی نشدهاند که بتوانند مانند انسان هوشمند باشند.
ابزارهای یادگیری ماشین مبتنی بر حجم زیادی از دادهها و کلاندادهها هستند و با تحلیل آن و پیدا کردن الگوها، صرفا «محتملترین» جواب به مسئله را پیدا میکنند. اما محتملترین جواب، لزوماً درستترین جواب نیست. برای اطلاعات بیشتر درباره این چالش به نوشته نوآم چامسکی، متفکر معروف آمریکایی درباره توهم چتجیپیتی رجوع شود.
خطرات امنیتی ChatGPT
اخبار پیشرفتهای این چتبات مبتنی بر هوش مصنوعی دنیای سایبری را تکان داده است، اما خطرات و چالشهای زیادی نیز دراینباره مطرح شده است.
براساس توضیحات محققان امنیت سایبری CyberArk، این چتبات میتواند بدافزار ایجاد کند.
محققان از این ابزار هوش مصنوعی برای ایجاد کدهای متفاوت استفاده کردند و دیدند که شناسایی و مقابله با آن کدها برای نرم افزارهای ضد بدافزار بسیار دشوار است. محققان این مجموعه تعدادی کد به این ابزار آموزش دادند و از او خواستند تا فایل جدیدی را بنویسد و رمزگذاری کند.
با این حال، تفاوتی بین نوع اثبات کار مفهومی انجام شده توسط محققان CyberArk و جهش از اثبات مفهوم به بدافزار واقعی ایجاد شده توسط مجرمان وجود دارد؛ و به نظر میرسد که کد مخرب تولید شده توسط ChatGPT ممکن است قبلاً جهش کرده باشد.
در تاریخ ژانویه ۲۰۲۳ محققان Check Point گزارشی مبنی بر اینکه بعضی از کاربران انجمنهای جرائم سایبری از این چتبات برای ایجاد بدافزار استفاده میکنند، دریافت کردند. آنها ادعا کردند که خالق این رشته تصاویری از کد پایتون را به اشتراک گذاشته است که ادعا میشود توسط ChatGPT ایجاد شده است که انواع فایلهای رایج مانند فایلهای Office و PDF را جستجو و آنها را در یک پوشه تصادفی کپی کرده سپس آن پوشهها را فشرده و در یک سرور FTP آپلود میکند.
علاوه بر نوشتن کدهای مخرب، محققان امنیت سایبری نگران استفاده از ChatGPT برای تولید محتوای فیشینگ و معتبر برای استفاده در حملات مهندسی اجتماعی (طیف وسیعی از فعالیتهای مخرب حاصل از تعاملات انسانی با استفاد از روش فریب دادن کاربران در جهت انجام اشتباهات امنیتی یا دادن اطلاعات حساس استفاده میکنند. این بات جعل هویت یک سازمان یا فرد را برای مجرمان سایبری بسیار آسان میکند.
در ژانویه ۲۰۲۳ محققان WithSecure آزمایشی را در خصوص این چت بات انجام دادند. آنها از ChatGPT برای تولید ایمیلهای فیشینگ و نیزهفیشینگ با صدای قانعکننده، مانند تلاش برای مهندسی اجتماعی یکی از اعضای تیم مالی یک شرکت برای انتقال پول به کلاهبردار، استفاده کردند.
نتیجهها حاکی از این بود که مهارت ایجاد ایمیلهای فیشینگ متقاعدکننده با ChatGPT در ایجاد اعلانها نهفته است و نمونههایی از اعلانهای دقیق را ارائه میدهد که ایمیلهای دقیق و سفارشی را ارائه میدهند که تشخیص آنها از یک ایمیل واقعی دشوار است.
البته ذکر این نکته حائز اهمیت است که در حال حاضر ChatGPT بر روی محتوای در دسترس عموم در اینترنت آموزش دیده است و هنوز هیچ برنامه نویسی خصوصی نرمافزاری برای امکان آموزش ربات چت بر روی محتوای سفارشی وجود ندارد. البته با سفارشی شدن محتوای آن میتوان انتظار اطلاعات نادرست، فیشینگ و سایر حملهها را به صورت بسیار دقیقتر و هدفمندتری داشته باشیم.
از دیگر نگرانیهای مرتبط به این چت بات محتوای ایجاد شده توسط آن است. پرا که ممکن است پاسخخت بسیار معتبر و درست به نظر برسند و در عین حال کاملا اشتباه باشند.
فناوری «دیپ فیک» که هم ویدئو و هم صدای افراد را شبیهسازی میکند، بسیار نگران کننده است. شبیهسازی کلمات و صدای یک فرد از طریق این ربات هوش مصنوعی خود لایه دیگر یاز تهدید و فریب است.
امنیت سایبری و پاسخ به ChatGPT
با توجه به حملات فیشینگ احتمالی توسط این چت بات، متخصصان سایبری باید نمونههای فیشینگ ساخته شده توسط این ربات را شناسایی و به کاربران آموزش دهند. این آموزش میتواند شامل نمونههای سفارشی (که توسط خود ChatGPT ایجاد شده است) از ایمیلهایی که باید به آنها هشدار داده شود، باشد.
پیش از آن که دیر شود باید تمهیدات لازم توسط متخصصان سایبری برای مقابله با این ابزار پیشبینی و اجرایی شود چرا که ممکن است این خطرات امنیتی منجر به کشته شدن تعداد زیادی از انسانها شود.