فرانسه به بهانه برگزاری این مسابقات قصد دارد نظارت بر شهروندان را تشدید کند.
به گزارش گرداب، عفو بینالملل در مطلبی نسبت به استفاده از فناوریهای نظارتی جدید در کشور فرانسه در زمان برگزاری المپیک ۲۰۲۴ ابراز نگرانی کرد.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
قانونگذاران فرانسوی باید هر برنامهای مبنی بر استفاده از نظارت تصویری مبتنی بر هوش مصنوعی در المپیک ۲۰۲۴ را رد کنند. چنین فناوریهای نظارت جمعی سرسختانهای حقوق حریم شخصی را نقض میکنند و میتوانند منجر به نقض حقوق آزادی بیان و تجمعات صلحآمیز شوند. سازمان عفو بینالملل گفته است که این میتواند در آینده به سطوح دیستوپیایی نظارت منتهی شود، زیرا پروژه پیشنهادی در مورد بازیهای المپیک و پارالمپیک ۲۰۲۴ به رایگیری عمومی در مجلس ملی فرانسه میرود.
پیشنهاد لایحه در ژانویه توسط سناتورهای فرانسوی تصویب شد و اگر پذیرفته شود، برای اولین بار در تاریخ فرانسه و اتحادیه اروپا استفاده از یک سیستم فراگیر نظارت تصویری جمعی مبتنی بر هوش مصنوعی را قانونی میکند. طبق گفته قانونگذاران فرانسوی این ساختار نظارت عظیم آزمایشی است و برای اطمینان از ایمنی و امنیت در طول بازیها استفاده خواهد شد. با این وجود سازمان عفو بینالملل نگران است که این لایحه با گسترش تجهیزات نظارتی قدرت پلیس را به صورت دائمی افزایش خواهد داد.
اگنس کالامار (Agnes Callamard)، دبیرکل سازمان عفو بینالملل گفت: «تجهیز مجدد ابزار امنیتی با ابزار نظارت جمعی مبتنی بر هوش مصنوعی یک پروژه سیاسی خطرناک است که میتواند منجر به نقض گسترده حقوق بشر شود. هر عمل در فضای عمومی به یک شبکه زیرساخت نظارتی کشیده میشود، که اساسیترین آزادیهای شهروندی را خدشهدار میکند».
او همچنین گفت: «قانونگذاران فرانسوی نتوانستهاند اثبات کنند که این قانون پیشنهادی با اصول ضرورت و تناسب که برای اطمینان از این که تدابیر امنیتی و نظارتی حقوق آزادی تجمع و انجمن، حریم شخصی و عدم تبعیض را تهدید نمیکنند، همخوانی دارد. در حالی که نیاز به امنیت در طول رویداد قابل درک است، قوانین بینالمللی حقوق بشر هنوز هم بر المپیک اعمال میشود. در قالب فعلی، این اجراهای عمومی نظارت جمعی مبتنی بر هوش مصنوعی به طور کامل نقض حقوق حریم شخصی و سایر حقوق هستند».
اگر تدابیر نظارت جمعی مبتنی بر هوش مصنوعی اجرا شوند، میلیونها نفر – چه وقتی دارند به استادیومها مراجعه میکنند یا از حمل و نقل عمومی برای دستیابی به مکانهای بزرگ این رویداد ورزشی استفاده میکنند - پیگیری و نظارت خواهند شد. الگوریتمهای هوش مصنوعی اطلاعات را از همه افراد در دامنه خود اسکن و ضبط میکنند. حضور گسترده دوربینهای مداربسته و پهپادها در بازیها، به مقامات اجازه میدهد تا فعالیتهای مشکوک یا غیرعادی در میان جمعیت را شناسایی کنند، که به همین دلیل به طور خاص این فناوری مشکلساز است.
اگنس کالامار گفت: «این تعاریف بیش از حد جامعی که توسط مقامات برای طبقهبندی فعالیتهای مشکوک و غیرعادی در میان انبوه جمعیت تعیین میشود، بسیار نگرانکننده هستند. باید از خود چند سوال ضروری بپرسیم. چه کسانی معیار عادی را تعیین میکنند؟ مقاماتی که کنترل تعیین تعریف فعالیتهای غیرعادی یا مشکوک در جوامع دارند، توانایی دارند تا تأثیر مخربی بر اختلاف عقیده و اعتراضات به وجود آورند، و تبعیض علیه اقلیتهایی که از قبل مورد هدف بودهاند را تشدید کنند».
تهدیدهای حقوق بشری ناشی از توسعه و استفاده از هوش مصنوعی توسط شرکتهای خصوصی و مقامات عمومی در اتحادیه اروپا به خوبی مستند سازی شده است.
اگنس کالامار گفت: «این فناوریها انتظام بخشی نژادی را تقویت میکنند و حق اعتراض را تهدید میکنند. اقلیتهای قومی - از جمله مهاجران و افراد سیاه و قهوهای - بیشترین ریسک مورد هدف قرار گرفتن با برخی ابزارهای نظارتی، به ویژه سیستمهای تشخیص چهره را دارند».
این لایحه نه تنها یک تهدید برای حریم شخصی و حقوق بشر است، بلکه همچنین روح قانون هوش مصنوعی اتحادیه اروپا که بخشی مهم از قوانین جهانی که هدف آن کنترل هوش مصنوعی و حفاظت از حقوق اساسی در اتحادیه اروپا است را نقض میکند.
اگنس کالامار میگوید: «طرح فرانسه برای استفاده از تدابیر نظارت نفوذی در جریان بازیهای المپیک باید به عنوان یک اخطار برای اتحادیه اروپا عمل کند. اولین استفاده از این ابزار امنیتی در اتحادیه اروپا در نهایت ممکن است سند مصوب هوش مصنوعی فراکسیون را به گونهای که خطر ایجاد یک بحران حقوق بشری از طریق نقض گسترده حقوق میلیونها نفر که به طور ناخودآگاه و بدون توافق مورد نظارت قرار میگیرند و احتمالا توسط فناوری نظارت گسترده تجربی هدف قرار میگیرند، منحرف کند. اتحادیه اروپا باید از طریق سند مذاکرات هوش مصنوعی خود به استفاده از فناوریهای مبتنی بر هوش مصنوعی برای نظارت جمعی و نظارت تبعیضآمیز بر شهروندان پایان دهد. همچنین خواستار ممنوعیت استفاده از سیستمهای تشخیص چهره برای نظارت جمعی هستیم».
اگر فرانسه نظارت جمعی را در سطح ملی قانونی کند، یکی از بزرگترین رویدادهای ورزشی روی زمین ممکن است به یکی از بزرگترین نقضهای حریم شخصی تبدیل شود.
پیشینه:
متن لایحه در تاریخ ۳۱ ژانویه توسط سنا تصویب شد و پس از رای کمیته در تاریخ ۸ مارس، یک مانع قانونی را پشت سر گذاشت.
در یک نامه عمومی که توسط مرکز اروپایی عامالمنفعه راهاندازی شده است، ۳۸ سازمان اجتماعی مدنی، از جمله سازمان عفو بینالملل، از سیاستگذاران فرانسه خواستهاند که لایحه قانونی را در مورد اجازه نظارت نفوذی رد کنند.
عفو بینالملل به همراه یک ائتلاف از سازمانهای جامعه مدنی به رهبری شبکه حقوق دیجیتال اروپا (EDRi)، از مدیریت اتحادیه اروپا کنترل فناوریها و رویکرد هوش مصنوعی را با رعایت حقوق بشر خواسته است.
عفو بینالملل به تازگی استفاده از هزاران دوربین مداربسته با قابلیت تشخیص چهره را در سراسر شهر نیویورک ثبت کرده است. بسیاری از آنها در جوامع اقلیتهای رنگینپوست استفاده شدهاند و نقضهای نژادپرستانه در امور پلیسی را افزایش دادهاند.