براساس مطالعه صورتگرفته توییتهایی که با زبان هوش مصنوعی GPT-3 نوشته شده است، نسبت به پست افراد واقعی متقاعدکنندهتر بودند.
به گزارش گرداب، محققان انستیتو اخلاقیات زیستپزشکی و تاریخ درمان در دانشگاه زوریخ سویس، در پیمایشی از شرکتکنندگان خواستند که میان توییتهای نوشتهشده توسط انسانها و توییتهایی که توسط هوش مصنوعی تولید شده، تمایز قائل شوند.
همچنین از افراد پرسیده شده بود که مشخص کنند آیا اطلاعات منتشرشده صحیح است یا نه. توییتها درباره مطالب داغ و جنجالی بودند مانند تاثیرات واکسن یا تغییرات آبوهوایی و موضوعاتی که اغلب در فضای مجازی با شدت بحث میشود.
اما نتیجه این تحقیقات این بود که شناسایی اخبار جعلی در مواردی که باتها و هوش مصنوعی آن را نوشته باشد، بسیار دشوارتر است. به شکل عجیبی در همین حال اطلاعات مستند و درستی که توسط باتها نوشته شده آسانتر شناسایی میشود. به بیان دیگر افرادی که در این تحقیق مورد بررسی قرار گرفتند حرف هوش مصنوعی را باور میکردند؛ فارغ از این که اطلاعات صحیح باشد یا خیر.
این مسئله خطرناک بودن هوش مصنوعی برای جنگهای نرم را نشان میدهد. هوش مصنوعی میتواند در خدمات انتشار و رواج اخبار جعلی قرار بگیرد و در جنگ اطلاعاتی به کار بیاید.
منبع: Science.org