گزارشی جدید نشان میدهد الگوریتمهایی که شرکتهای فناوری برای شناسایی محتوای نژاد پرستانه توسعه داده اند قادر به ردیابی پستهای توهین آمیز حاوی ایموجی نیستند.
به گزارش گرداب، تحقیقی در دانشگاه آکسفورد نشان میدهد شرکتهای فناوری به دلیل وجود ایموجیها نمیتوانند برخی پستهای محتوای نژاد پرستانه را شناسایی کنند.
به گفته کارشناسان الگوریتمهایی که گوگل توسعه داده در شناسایی و مسدود کردن محتوای نژاد پرستانه همراه با ایموجی فقط ۱۴ درصد کارآمد است. ایموجیها میتوانند نرم افزار را فریب دهند که محتوای مذکور اهانت آمیز نیست.
محققان انستیتو «اینترنت آکسفورد» در پژوهش خود متوجه شدند فناوری که برای مسدود کردن پستهای توهین آمیز یا حاوی نفرت در فضای آنلاین توسعه یافته، بیشتر اوقات نمیتواند پیامهایی که حاوی ایموجی هستند را شناسایی کند.
ایموجیهای معمولی مانند سمبلهای میمون، موز و هندوانه بیشتر با محتوای نفرت پراکنی نژاد پرستانه همراه هستند.
پس از شکست تیم فوتبال انگلیس از ایتالیا در فینال مسابقات اروپا، ۳ بازیکن سیاهپوست تیم انگلیس با انبوهی از محتوای نژاد پرستانه از جمله ایموجیها روبرو شدند.
محققان آکسفورد متوجه شدند فناوریهای فعلی بازبینی محتوا به طور مداوم اشتباه میکنند و ایموجیها را توهین آمیز نمیدانند. زیرا نرم افزار هوش مصنوعی به کار گرفته شده برای الگوریتمهای مذکور برای شناسایی چنین ایموجیهایی برنامه ریزی نشده است.
در ماه جولای آدام موسری مدیر اینستاگرام اعتراف کرد این اپ در ردیابی کامنتهای توهین آمیزی که برای بازیکنان فوتبال ارسال شده، شکست خورده است.
از سوی دیگر هفته گذشته توئیتر اعلام کرد ۱۶۲۲ پست توهین آمیز که طی فینال مسابقات فوتبال اروپا ارسال شده بوده را حذف کرده است.