چالش‌های حکمرانی هوش مصنوعی؛

پرونده/ نهاد‌های نظارتی اروپا در یک قدمی چت‌جی‌پی‌تی

پرونده/ نهاد‌های نظارتی اروپا در یک قدمی چت‌جی‌پی‌تی
تاریخ انتشار : ۲۹ خرداد ۱۴۰۲

همزمان که ترس‌ها در مورد هوش مصنوعی افزایش می‌یابد، ربات چت هوش مصنوعی عملاً به یک هدف آسان برای رگولاتور‌ها حریم خصوصی تبدیل شده است. چت جی‌پی‌تی خود را برای درگیری سخت با نهاد‌های ناظر (watchdog) محافظت از حریم شخصی اتحادیه اروپا آماده می‌کند.

به گزارش گرداب، ربات چت جالب‌ترین تجربه فناوری هوش مصنوعی است، اما این ربات اخیراً در ایتالیا به دلیل نقض قوانین حفظ حریم خصوصی اروپا، مقررات عمومی حفاظت از داده‌ها (GDPR)، با ممنوعیت موقت مواجه شد.

ممنوعیت ایتالیایی تنها شروعی برای مشکلات چت جی‌پی‌تی است؛ زیرا فناوری پیشرفته‌ای را اجرا می‌کند که دولت‌ها را به خاطر خطراتی همچون نقض حفاظت از داده‌ها، نشر اطلاعات نادرست، جرایم سایبری و تقلب در آزمون‌های مدرسه نگران کرده است.
اوپن ای‌آی (OpenAI)، سازمانی که چت جی‌پی‌تی را خلق کرد، هدف مشخصی را دنبال می‌کند. این سازمان حتی یک دفتر مرکزی محلی در یکی از ۲۷ کشور اتحادیه اروپا راه‌اندازی نکرده و این به این معنی است که مرجع حفاظت از داده‌های هر کشور عضو می‌تواند تحقیقات جدیدی را آغاز کرده و ممنوعیت‌های خود را اجرایی کند.

پیش از این، گوگل با جریمه ۵۰ میلیون یورویی مقررات عمومی حفاظت از داده‌ها در فرانسه روبرو بود و این امر زمانی اعمال شد که هنوز غول فناوری ایالات متحده به طور رسمی راه‌اندازی قانونی اروپایی خود را در ایرلند متمرکز نکرده بود. تیک‌تاک نیز پیش از راه‌اندازی قانونی فروشگاه خود در ایرلند در سال ۲۰۲۱، با چندین تحقیق و جریمه از سوی مقامات هلندی، ایتالیایی و فرانسوی مواجه شده بود.
قانون‌گذاران داده در اروپا در حال ارزیابی گام‌های بعدی خود برای بررسی سوءاستفاده‌هایی هستند مانند آنچه همتایان ایتالیایی‌شان تجربه کرده‌اند.

به گفته گراهام دویل (Graham Doyle)، سخنگوی کمیسیون حفاظت از داده‌های ایرلند اعلام کرد: «با تمام اتحادیه اروپا [مقامات حفاظت از داده‌ها]در رابطه با این موضوع هماهنگ خواهد شد». مقام حفاظت از داده‌های بلژیک نیز گفت که نقض احتمالی چت جی‌پی‌تی می‌بایست در سطح اروپا مورد بحث قرار گیرد.

مجله «L'Informé» گزارش داد که اداره حفاظت از داده‌های فرانسه «CNIL» حداقل دو شکایت علیه چت جی‌پی‌تی به دلیل نقض حریم خصوصی از جمله مقررات عمومی حفاظت از داده‌ها دریافت کرده است.
توبیاس جودین (Tobias Judin)، ریاست اداره رگولاتوری حفاظت از داده در نروژ «Datatilsynet» گفت: «ما تا به امروز تحقیقاتی در مورد چت جی‌پی‌تی انجام نداده‌ایم، اما تضمینی نمی‌دهیم که در آینده نیز همینطور رفتار کنیم.»

در حالی که اوپن ای‌آی نقض قوانین حفظ حریم خصوصی اتحادیه اروپا را رد کرده، مدیر اجرایی این شرکت، سام آلتمن (Sam Altman)، در توییتر نوشت که شرکت او در زمینه ممنوعیت از دولت ایتالیا تبعیت می‌کند.

آلتمن گفت: «ایتالیا یکی از کشور‌های مورد علاقه من است و مشتاقانه منتظرم که به‌زودی دوباره از آن دیدن کنم». مقام حفاظت از داده‌های ایتالیا در ششم آوریل اظهار کرد که اوپن ای‌آی پس از تماس ویدیویی با مدیران شرکت، برای مقابله با نقض احتمالی قوانین حریم خصوصی اتحادیه اروپا آماده است.

قوانینی که باید رعایت شوند

سیستم‌های هوش مصنوعی مانند جی‌پی‌تی تنها در زمینه حریم خصوصی نگرانی ایجاد نمی‌کنند.
به گزارش روزنامه بلژیکی لا لیبر (La Libre) در اواخر ماه مارس، یک جوان بلژیکی پس از هفته‌ها مکالمه با یک ربات چت مبتنی بر هوش مصنوعی به نام «Eliza» خودکشی کرد. هفته گذشته ایلان ماسک، غول نام‌آشنای فناوری، به همراه هزاران متخصص هوش مصنوعی خواستار توقف توسعه چت جی‌پی‌تی به دلیل امکان بروز خطرات جدی برای بشریت شد.

گروه‌های ذی‌نفوذ نیز همین روند را پیش گرفته‌اند. در ایالات متحده، مرکز هوش مصنوعی و سیاست دیجیتال از کمیسیون تجارت فدرال آمریکا خواسته تا اوپن ای‌آی را بررسی کرده و از انتشار بیشتر ربات خود جلوگیری کند. هفته گذشته در بروکسل، سازمان نظارت بر مصرف‌کنندگان «BEUC» از قانون‌گذاران اروپایی و ملی درخواست کرد که چت جی‌پی‌تی را بررسی کنند و هشدار داد که قوانین آتی اتحادیه اروپا ممکن است برای جلوگیری از آسیب‌ها خیلی دیر باشد.

قانون‌گذاران اروپایی همچنین در حال مذاکره بر سر راه‌اندازی این فناوری به عنوان بخشی از پیش‌نویس قانون هوش مصنوعی اتحادیه اروپا هستند. اما فقدان قانون در مورد هوش مصنوعی، قانون‌گذاران حفاظت از داده‌ها را تشویق کرده تا وارد عمل شوند.
گابریلا زانفیر‌فورتونا (Gabriela Zanfir‌Fortuna)، از اندیشکده انجمن آینده حفظ حریم خصوصی، گفت: «قانون‌گذاران حفاظت از داده‌ها کم‌کم متوجه می‌شوند که آن‌ها درواقع رگولاتور هوش مصنوعی هستند.»

رگولاتور‌های حریم خصوصی مقررات عمومی حفاظت از داده‌ها، قوانین مجموعه خود را که مربوط به جمع‌آوری داده‌ها و محافظت از کاربر در برابر تصمیم‌گیری خودکار است، اجرایی می‌کنند. شرکت‌هایی مانند اوپن ای‌آی باید مبنای قانونی برای جمع‌آوری و استفاده از داده‌های شخصی داشته باشند، در مورد نحوه استفاده از داده‌های افراد شفاف باشند، داده‌های شخصی را دقیق نگه دارند و به افراد حق اصلاح بدهند.
شرکت اوپن ای‌آی هرگز فاش نکرده که از چه مجموعه داده‌ای برای آموزش مدل هوش مصنوعی زیربنای چت بات استفاده کرده است. حتی محققان مایکروسافت، که سرمایه‌گذار اصلی اوپن ای‌آی است، در مقاله اخیر گفته‌اند که «به جزئیات کامل داده‌های آموزشی گسترده چت جی‌پی‌تی دسترسی ندارند.»

شرکت تشخیص چهره «Clearview AI» قبلا جریمه شده و به دستور رگولاتور حریم خصوصی مجبور به حذف تصاویر افراد ایتالیایی، فرانسوی، بریتانیایی و آمریکایی که به صورت آنلاین برای ساخت الگوریتم خود جمع‌آوری کرده بود شد، چراکه مبنای قانونی برای انجام این کار نداشت.

این واقعیت که چت جی‌پی‌تی در ماه مارس دچار نقض اطلاعات شد و مکالمات کاربران و اطلاعات پرداخت کاربرانش را فاش کرد، تنها به مشکلات آن می‌افزاید.

دسیسلوا ساووا (Dessislava Savova)، شریکی که در شرکت حقوقی کلیفورد شانس (Clifford Chance) بر فناوری تمرکز دارد، گفت: تصمیم ایتالیا برای متوقف کردن چت جی‌پی‌تی در مسیر خود، یک زنگ خطر است. این در واقع یک گفت‌وگو را در اروپا آغاز کرده و موضع‌گیری توسط سایر رگولاتور‌ها را سرعت می‌بخشد.