گروههای حقوق بشری از پارلمان اروپا خواستهاند استفاده پلیس از ابزارهای پیشبینیکننده مبتنی بر هوش مصنوعی را ممنوع کنند.
به گزارش گرداب، درحالی که پارلمان اروپا در حال آمادهسازی متمهایی بر لایحه هوش مصنوعی هستند، گروههای حقوق بشری از اعضای پارلمان اروپا میخواهند که جلوی استفاده از ابزارهای نظارتی هوش مصنوعی در حوزه امنیت داخلی را بگیرند.
پیش از این بارها هوش مصنوعی به این متهم شده که وقتی از ابزارهای هوشمند برای شناسایی جرم و جنایت و مجرمان احتمالی استفاده میشود، شدیداً با نژادپرستی عمل میکند و سامانههای پیشبینیکننده هوش مصنوعی بارها به داشتن سوگیری علیه سیاهپوستان و اقلیتهای نژادی و مذهبی متهم شده اند.
در روز (۱۱ مه) قرار بود اعضای پارلمان اروپا نهاد قانونی اتحادیه اروپا درباره تغییرات کلیدی به لایحه هوش مصنوعی تصمیم گیری کنند. این لایحه نخستین بار در سال ۲۰۲۱ عرضه شد. در میان این پیشنهادات و متممها بند CA ۱۱ است که که استفاده از سامانههای پیشبینی کننده پلیسی را در بین کشورهای اتحادیه اروپا ممنوع میکند. اگر این قانون تصویب شود، نخستین باری خواهد بود که در اروپا چنین اتفاقی رخ میدهد.
هوش مصنوعی هرچند به عنوان ابزاری قدرتمند شناخته شده که میتواند تصاویر چهره را به سرعت اسکن کرده و شناسایی کند و آن هم در مقیاس کلان این کار را انجام دهد، اما به خاطر شناسایی اشتباه افراد رنگینپوست به عنوان مجرمان احتمالی مورد انتقاد شدید است. گروههای حقوق بشری مانند Fair Trials از اعضای پارلمان اروپا میخواهند که استفاده از این ابزار را به خاطر نژادپرستی متوقف کنند.