پنج نکته مهم درباره قانون هوش مصنوعی اروپا

پنج نکته مهم درباره قانون هوش مصنوعی اروپا
تاریخ انتشار : ۱۱ تير ۱۴۰۲

پیش‌نویس این قانون با اکثریت آرا به تصویب رسید، اما نسخه نهایی احتمالاً کمی متفاوت‌تر خواهد بود.

به گزارش گرداب، ماه اخیر ماه مهمی در سیاست فناوری اروپا بود. درست همان روزی که پارلمان اروپا برای پیش‌نویس قانون هوش مصنوعی رای‌گیری می‌کرد، قانونگذاران اروپا شکایت ضد انحصاری (آنتی تراست) جدید علیه گوگل ارائه کردند. رای‌گیری برای قانون هوش مصنوعی با اکثریت قاطع به تصویب رسید که به عنوان یکی از مهم‌ترین تحولات جهان در مقررات هوش مصنوعی شناخته می‌شود. روبرتا متسولا (Roberta Metsola) رئیس پارلمان اروپا آن را به عنوان قانونی توصیف کرد که بدون شک استاندارد‌های جهانی را برای سال‌های آینده تعیین خواهد کرد.

سیستم قانون‌گذاری اروپا کمی پیچیده است. در مرحله بعد، اعضای پارلمان اروپا باید جزئیات را با شورای اتحادیه اروپا و بازوی اجرایی اتحادیه اروپا، کمیسیون اروپا، قبل از تبدیل شدن پیش‌نویس به قانون بررسی کنند. قانون نهایی ترکیبی از سه پیش‌نویس مختلف ارائه شده توسط سه نهاد خواهد بود که نسبت به یکدیگر بسیار متفاوتند. احتمالاً حدود دو سال تا اجرایی شدن قوانین طول خواهد کشید.

آن چه با رای روز چهارشنبه ۱۴ ژوئن ۲۰۲۳ مشخص شد، تأیید موضع پارلمان اروپا در مذاکرات آتی بود. با ساختاری مشابه قانون خدمات دیجیتال اتحادیه اروپا که چارچوبی قانونی برای پلتفرم‌های آنلاین است، قانون هوش مصنوعی با رویکردی مبتنی بر ریسک نشان می‌دهد که قانون‌گذاران تا چه حد خطرناک بودن یک برنامه هوش مصنوعی را پیش‌بینی کرده‌اند. کسب و کار‌ها همچنین باید ارزیابی‌هایی درباره خطرات استفاده‌های خود از هوش مصنوعی ارائه دهند.

این پیش‌نویس مورد انتقاد شرکت‌های فناوری اروپایی قرار گرفته است و آن‌ها معتقدند قانون‌گذاری بیش از اندازه در این حوزه باعث خروج رقابت از این قاره می‌شود (برای مشاهده بیشتر خبر به اینجا مراجعه کنید)

در صورتی که از نظر قانون‌گذاران خطرات شناسایی شده غیر قابل قبول باشند، برخی از کاربرد‌های هوش مصنوعی به طور کامل ممنوع خواهد شد در حالی که برای کاربرد فناوری‌هایی با ریسک بالا محدودیت‌های جدید و الزامات مربوط به شفافیت در فعالیت اعمال می‌شود.

برخی از نکات اصلی در ادامه آورده شده‌اند:

۱. ممنوعیت استفاده از هوش مصنوعی برای تشخیص احساسات. در متن پیش‌نویس پارلمان اروپا آورده شده که استفاده از هوش مصنوعی جهت تشخیص احساسات افراد در مدارس، محل کار و برای نظارت پلیس ممنوع است. سازندگان نرم‌افزار‌های تشخیص احساسات مدعی شده‌اند که هوش مصنوعی می‌تواند مواردی از قبیل احساسات دانش‌آموزی را که مطالب درسی خاصی را متوجه نمی‌شود یا راننده‌ای که خواب آلود به نظر می‌رسد را تشخیص دهد. استفاده از هوش مصنوعی برای تشخیص و تجزیه و تحلیل چهره به دلیل عدم دقت و تبعیض قائل شدن آن مورد انتقاد قرار گرفته، اما در متن پیش‌نویس ارائه شده از سوی دو نهاد دیگر ممنوع اعلام نشده است که نشان می‌دهد یک جنگ سیاسی در راه است.

۲. ممنوعیت شناسایی بیومتریک بی‌درنگ و پیش‌بینی‌های پلیسی در فضا‌های عمومی. نبرد قانونی بزرگی بر سر این مورد ایجاد خواهد شد، چون نهاد‌های مختلف اتحادیه اروپا باید بررسی کنند که چطور و چگونه این ممنوعیت در حوزه اجرای قانون عملی می‌شود. گروه‌های نظارتی و پلیس مخالف ممنوعیت فناوری‌های بیومتریک بی‌درنگ هستند، چون بر این باورند که در عصر امروزی امری ضروری و کمک‌کننده است. برخی از کشور‌ها مانند فرانسه در حال برنامه‌ریزی برای افزایش استفاده از فناوری تشخیص چهره هستند.

۳. ممنوعیت امتیازدهی اجتماعی. امتیازدهی اجتماعی توسط سازمان‌های دولتی یا استفاده از داده‌های مربوط به رفتار اجتماعی افراد برای تعمیم دهی و پروفایل‌سازی، اعمالی غیر قانونی خواهند بود. با این اوصاف چشم‌انداز امتیازدهی اجتماعی که معمولاً مرتبط با چین و دولت‌های مستبد دیگر است، آنقدر‌ها هم که به نظر می‌رسد شفاف نیست. استفاده از داده‌های مربوط به رفتار اجتماعی برای ارزیابی افراد در اعطای وام مسکن، تعیین نرخ بیمه و همچنین در استخدام و تبلیغات رایج است.

۴. محدودیت‌های جدید برای هوش مصنوعی مولد. این اولین پیش‌نویسی است که در آن راه‌هایی برای تنظیم هوش مصنوعی مولد و منع استفاده از مطالب کپی رایت شده در مجموعه آموزشی مدل‌های زبان بزرگ مانند چت جی‌پی‌تی ۴ آمده است. به دلیل نگرانی‌ها درباره حفظ حریم خصوصی داده‌ها و حق کپی رایت، شرکت OpenAI تحت نظارت قانون‌گذاران اروپایی قرار گرفته است. همچنین ذکر شده است که محتوای تولید شده توسط هوش مصنوعی باید قابل تشخیص باشد. به این ترتیب، حالا پارلمان اروپا باید کمیسیون اروپا و کشور‌های دیگر را نسبت به این سیاست متقاعد کند هر چند آن‌ها احتمالاً با فشار اعضای حوزه فناوری مواجه خواهند شد.

۵. محدودیت‌های جدید در الگوریتم‌های پیشنهادی رسانه‌های اجتماعی. در پیش‌نویس جدید، سیستم‌های توصیه‌کننده در دسته پر خطر قرار داده شده‌اند که در سایر لوایح پیشنهادی چنین نیست. این یعنی در صورت تصویب شدن، سیستم‌های توصیه‌کننده در پلتفرم‌های رسانه‌های اجتماعی مورد بررسی دقیق‌تری درباره نحوه عملکردشان قرار می‌گیرند و شرکت‌های فناوری مجبورند تا در قبال تأثیر محتوای تولید شده توسط کاربران مسئولیت بیشتری به گردن بگیرند و پاسخگو باشند.

به توصیف مارگرت وستاگر (Margrethe Vestager) معاون اجرایی کمیسیون اتحادیه اروپا، دامنه خطرات هوش مصنوعی گسترده است. او نسبت به آینده اعتماد به اطلاعات، آسیب‌پذیری در برابر دستکاری اجتماعی از سوی مجرمان و نظارت شدید و گسترده ابراز نگرانی کرده است. او روز چهارشنبه به خبرنگاران گفت: «اگر در موقعیتی قرار بگیریم که هیچ چیز را باور نداشته باشیم، جامعه خود را تحلیل داده و به کل تضعیف کرده‌ایم».

قانون‌گذاری هوش مصنوعی یکی از چالش‌های مهم دولت الکترونیک است. عدم ورود درست و به موقع به این حوزه پیامد‌های ویرانگری برای کشور به همراه دارد. باید دقت کرد قبل از این که این فناوری رواج پیدا کند، زمان طلایی قانون‌گذاری آن است. آیا مسئولان کشور ما این زمان طلایی را غنیمت می‌شمارند، یا می‌‎گذارند اتفاقی که در حوزه شبکه‌های اجتماعی و اینترنت در کشور افتاد و بسیار پس از این که رواج پیدا کرد، اقدام به قانون‌گذاری و حکمرانی شد، برای هوش مصنوعی هم تکرار شود؟