Gerdab.IR | گرداب

سه چالش مقررات‌گذاری در حوزه هوش مصنوعی

سه چالش مقررات‌گذاری در حوزه هوش مصنوعی
تاریخ انتشار : ۱۴ تير ۱۴۰۲

تام ویلر (Τom Wheeler) در یادداشتی در وب‌سایت اندیشکده‌ی Brookings سه چالش اصلی در تنظیم مقررات هوش مصنوعی را برمی‌شمارد.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


تعداد شرکت‌های هوش مصنوعی که خواستار تنظیم مقررات دولتی در رابطه با نحوه فعالیت‌شان هستند، در حال افزایش است:

  • سم آلتمن (Sam Altman) مدیر عامل OpenAI در ۱۶ مه ۲۰۲۳ به کمیته قضایی سنا گفت که نیاز به یک آژانس جدید داریم تا برای فعالیت‌هایی که فراتر از حد تعیین شده هستند مجوز دهد و قادر به لغو آن مجوز هم باشد و مطمئن شود که فعالیت‌ها مطابق با استاندارد‌های ایمنی پیش می‌روند.
  • برد اسمیت (Brad Smith) رئیس مایکروسافت که قبلاً از ایده ایجاد یک آژانس نظارت دیجیتال استقبال کرده بود، چند روز بعد از درخواست آلتمن تکرار کرد که شرکت‌ها باید درخواست‌هایشان را اظهار کنند و دولت‌ها سریع‌تر اقدام نمایند.
  • ساندار پیچای (Sundar Pichai) مدیر عامل گوگل در ۲۳ مه ۲۰۲۳ از توافق با اتحادیه اروپا (EU) برای توسعه پیمان هوش مصنوعی استاندارد‌های رفتاری داوطلبانه پیش از اجرای قانون هوش مصنوعی اتحادیه اروپا خبر داد.

ریچارد دوربین (Richard Durbin) رئیس کمیته قضایی سنا گفت از آن جایی که نمایندگان شرکت‌های بزرگ پیش ما آمده و از ما درخواست می‌کنند تا مقرراتی برای آن‌ها تنظیم کنیم می‌توانم بگویم که ما در دوره‌ای تاریخی قرار داریم.

درست همان لحظه‌ای که به نظر می‌رسید هوش مصنوعی می‌تواند زمینه را برای سوءاستفاده گرگ‌های بره نما فراهم کند، صلح و هماهنگی در برابر واقعیت قرار گرفت. بُعد دشواری گذر از یک بحث عمومی درباره مقررات هوش مصنوعی و اجرای آن با آنچه در ادامه اتفاق افتاد مشخص شد:

  • نه روز بعد از جلسه استماع سنا، آقای آلتمن علیه مقررات معلق اتحادیه اروپا در زمینه هوش مصنوعی صحبت کرد که مورد تحسین سناتور دوربین قرار گرفت. او هشدار داد: «ما سعی می‌کنیم تا رعایت کنیم، اما اگر الزامات بیش از توان ما باشد، فعالیت‌مان را در اروپا متوقف خواهیم کرد».
  • تیری برتون (Thierry Breton) کمیسر صنعت اتحادیه اروپا به سرعت پاسخ داد که چنین تهدیدی نوعی باج خواهی است: «نیازی به باج خواهی نیست. طوری ادعا می‌کنید که گویی اروپا با داشتن چارچوب مقرراتی واضح و روشن می‌خواهد جلوی توسعه هوش مصنوعی مولد را بگیرد».
  • با این حال، ربات چت آقای پیچای مشکل موجود را به خوبی نشان می‌دهد. گوگل بارد (Google Bard) که در ۱۸۰ کشور در دسترس است، در کانادا و اتحادیه اروپا به دلیل قوانین حفظ حریم خصوصی آن‌ها در دسترس نیست.

آقای آلتمن در راستای اظهارات همتایان اروپایی خود گفت که جزئیات واقعاً مهم هستند. این جزئیات سه چالش را برای نظارت بر هوش مصنوعی ایجاد می‌کند: رسیدگی به سرعت پیشرفت هوش مصنوعی، تجزیه و تحلیل مواردی که باید تنظیم شوند و تعیین این که چه کسی و چگونه مقررات را تنظیم کند.

چالش اول: سرعت (مشکل ملکه سرخ)

در «آن سوی آینه» اثر لوئیس کارول (Lewis Carroll) در سال ۱۸۷۱، ملکه سرخ به آلیس می‌گوید: «حالا برای این که در همین موقعیت بمانی باید تا می‌توانی بدوی، اما اگر می‌خواهی موقعیتت را تغییر دهی باید دو برابر سریع‌تر از این بدوی». این توصیه‌ای ارزشمند برای نظارت در عصر سریع تحولات هوش مصنوعی است.

مدتی می‌شود که هوش مصنوعی در پشت پرده و بدون سر و صدا در حال تکامل است. زمانی که گوگل به صورت خودکار نتایج جستجو را نشان می‌دهد یا آمازون کتابی را پیشنهاد می‌کند، هوش مصنوعی دخیل است. در نوامبر ۲۰۲۲ با راه‌اندازی چت جی‌پی‌تی ۳، هوش مصنوعی از پشت پرده خارج شد و به جای این که ابزاری برای مهندسان نرم‌افزار باشد به ابزاری تبدیل شد که مردم عادی بدون نیاز به تخصص فنی بتوانند از آن استفاده کنند. کاربران با استفاده از چت جی‌پی‌تی می‌توانند با یک ربات هوش مصنوعی مکالمه داشته باشند و از آن بخواهند به جای نوشتن کد، یک نرم‌افزار طراحی کند. چهار ماه بعد از راه‌اندازی چت جی‌پی‌تی، سازندگان آن از چت جی‌پی‌تی ۴ رونمایی کردند. این نسخه از جدیدترین مدل پایه زبان بزرگ (LLM) استفاده می‌کند و به ادعای OpenAI عملکردی در سطح قابلیت‌های انسانی در انواع وظایف دارد. چت جی‌پی‌تی به عنوان سریع‌ترین وبسایت در حال رشد در تاریخ ثبت شد و توانست بیش از صد میلیون کاربر طی دو ماه جذب کند.

ناگهان عرصه هوش مصنوعی رقابتی شد. مایکروسافت بعد از سرمایه‌گذاری ۱۳ میلیارد دلاری خود در OpenAI، چت جی‌پی‌تی را به محصولات خود از جمله بینگ اصلاح شده و مجهز به هوش مصنوعی اضافه کرد. گوگل که در سال ۲۰۱۶ با مدل هوش مصنوعی DeepMind خود توانست قهرمان انسانی را در بازی چینی Go شکست دهد، بلافاصله خبر از راه‌اندازی ربات چت بارد (Bard) داد. مارک زاکربرگ مدیر عامل متا به کارمندان خود گفت: «بزرگ‌ترین سرمایه‌گذاری ما در حوزه پیشرفت هوش مصنوعی و مجهز ساختن همه محصولات‌مان به این فناوری است». چندین شرکت کوچک‌تر به لطف در دسترس بودن کد منبع باز در تلاش برای رقابت در حوزه هوش مصنوعی هستند.

همانطور که ساتیا نادلا (Satya Nadella) مدیر عامل مایکروسافت در زمان رونمایی از بینگ پیشرفته شرکتش گفت، از همین الان رقابتی که انتظارش را داشتید آغاز می‌شود. چالش اصلی اینجاست که چگونه می‌توان از منافع عمومی در رقابتی که سریع‌ترین مسابقه در تاریخ است و بدون داور برگزار می‌شود، محافظت کرد.

برای جلوگیری از بی‌پروا شدن رقابت بر سر هوش مصنوعی بین شرکت‌ها لازم است که قوانینی ایجاد و اجرا شوند. با این حال با توجه به سرعت بالای تحولات هوش مصنوعی، شاید رسیدگی به این مسائل از تخصص و اختیارات فعلی دولت فدرال فراتر باشد. قوانین و ساختار‌های نظارتی در دسترس دولت امروز بر اساس مفروضات عصر صنعتی ایجاد شده‌اند که همان دهه‌های اول عصر پلتفرم دیجیتال توانست از این چارچوب‌ها پیشی بگیرد. قوانین موجود برای پایاپایی با سرعت توسعه هوش مصنوعی کافی نیستند.

اریک اشمیت (Eric Schmidt) رئیس اجرایی سابق گوگل و حامی هوش مصنوعی هشدار داده است: «هیچ یک از مقامات دولتی نمی‌تواند نظارت بر هوش مصنوعی را به درستی انجام دهد». آقای اشمیت نیاز به انتظارات رفتاری را درک می‌کند. او ترجیح می‌دهد که شرکت‌های فعلی مرز‌های معقولی را تعریف کنند. چنین رویکرد خودتنظیمی همان کاری است که شرکت‌های پلتفرم دیجیتال طی ۲۰ سال گذشته طرفدارش بودند. عواقب این استراتژی آسیب‌های آنلاین کنونی مانند تجاوز بی‌سابقه به حریم خصوصی و شخصی، تمرکز بازاری، فریب کاربران، انتشار نفرت، دروغ و اطلاعات نادرست بوده است. هوش مصنوعی به اقدامی بیشتر و بهتر از خود تنظیمی شرکتی نیاز دارد، چون می‌دانیم که تلاش برای کسب سود باعث نادیده گرفته شدن مقررات خواهد شد.

اجازه دادن به شرکت‌ها برای داشتن فعالیت‌هایی شبه دولتی و وضع قوانین خودخواسته برای کنترل هوش مصنوعی تکرار اشتباه همانند زمانی است که قبلاً به شرکت‌ها اجازه وضع قوانین برای پلتفرم‌های آنلاین داده شده بود. همانطور که سناتور ریچارد بلومنتال (Richard Blumenthal) توضیح داده است: «کنگره در رابطه با رسانه‌های اجتماعی نتوانست به درستی اقدام کند. اکنون ما موظفیم قبل از عملی شدن و به وقوع پیوستن تهدیدات و خطرات، در زمینه هوش مصنوعی اقدام بکنیم».

مقابله با چالش سرعت بالای تحولات، موضوعی است که نیاز به تمرکز و سرعت عمل دارد به طوری که مسائل مربوط به هوش مصنوعی جزو وظایف و تمرکز اصلی یک آژانس باشد، به جای این که مسئولیت بر دوش مقامات فعلی قرار گیرد و آژانس سرعت عمل لازم را خلاف روش‌های قدیمی مدیریت خرد نظارتی، برای همگام شدن با فناوری را داشته باشد.

کنگره در دوره صنعتی شدن، مقرراتی را بر مبنای دستورات فردریک تیلور (Frederick W. Taylor) که به تیلیوریسم معروف بود ایجاد کرد که می‌گفت تنها از طریق استانداردسازی اجباری روش‌ها است که می‌توان به نتایج رضایت بخشی دست یافت (با تأکید بر اصل). این یک رویکرد مدیریتی بود که عمدتاً به دلیل سرعت کُند نوآوری و روند پذیرش صنعتی شدن کار می‌کرد. همین سرعت پایین باعث شد که چنین فرماندهی و کنترل از طریق دستورات نظارتی در دولت اجرا شود.

شرکت‌های فناوری به مدت چندین سال زیر بار چنین رویکرد‌های مدیریتی نرفتند. این شرکت‌ها برای هم‌گامی با سرعت بالای تحولات در فناوری و بازار، رویکردی مدیریتی با سرعت عمل بالا را دنبال می‌کنند که شفافیت، همکاری و پاسخگویی را به جای دستورات سلسله مراتبی در بر می‌گیرد. تنظیم مقررات با سرعت عمل بالا باید به روشی مشابه پاسخ‌گویی انجام شود. برای تحقق این امر، کنگره باید به اندازه شرکت‌های دیجیتالی مبتکرانه عمل کند.

انقلاب صنعتی بر پایه جایگزینی و/یا افزایش قدرت فیزیکی انسان بنا شد. هوش مصنوعی در حال جایگزینی و/یا افزایش قدرت شناختی انسان است. داشتن درکی نادرست از الزامات نظارتی مورد اول و الزامات مورد دوم به معنای ناتوانی در همگام شدن با سرعت تغییرات در عصر دیجیتال است که به ضرر مصرف‌کنندگان و شرکت‌ها تمام می‌شود.

چالش دوم: چه چیزی را باید تنظیم کرد؟

از آن جایی که هوش مصنوعی قابلیت چند وجهی دارد، تنظیم فقط یک سری مقررات برای این که پاسخگوی همه نوع نیاز باشد ممکن نیست. برای مثال، هوش مصنوعی‌ای که در بازی ویدیویی اعمال می‌شود تأثیر متفاوتی با هوش مصنوعی‌ای دارد که می‌تواند امنیت زیرساخت‌های حیاتی را تهدید کند یا جان انسان‌ها را به خطر بیندازد، پس باید به گونه‌ای متفاوت با هر کدام برخورد شود؛ بنابراین مقررات هوش مصنوعی باید مبتنی بر ریسک و هدفمند تنظیم شوند. با ارائه تحلیلی در سه حوزه آستانه می‌توان روند در نظر گرفتن مقررات مناسب در زمینه هوش مصنوعی را تسهیل بخشید.

مقابله با سوءاستفاده‌های قدیمی

هوش مصنوعی با یا بدون نیت خیر می‌تواند زمینه را برای فعالیت‌های غیرقانونی فراهم سازد. هوش مصنوعی شاید یک فناوری جدید باشد، اما کاربرد بسیار بیشتری نسبت به سوءاستفاده‌های قدیمی دارد. در این زمینه می‌توان با نگاه به ابزار‌های نظارتی قدیمی، تهدیدات را شناسایی کرد.

به لطف هوش مصنوعی، کلاهبرداری‌های مربوط به مصرف‌کننده و جرائم شرکتی چه از طریق ایمیل یا تلفن می‌توانند به سطح پیچیدگی و بهره‌وری بی‌سابقه‌ای برسند. پیش از این، کلاهبرداری با ترکیب اجزایی مانند آدرس ایمیل یا شماره تلفن با یک متن پیام قانع‌کننده انجام می‌شد که طی آن اطلاعات لو رفته و جمع‌آوری می‌شد. حال با هوش مصنوعی امکان این که کل فرآیند به طور خودکار انجام شود وجود دارد، از انتخاب هدف گرفته تا ایجاد و تحویل پیام.

مشاور کمیسیون تجارت فدرال (FTC) با اشاره به کلاهبرداری‌های صوتی مبتنی بر هوش مصنوعی، بینشی متفاوت از قدرت این فناوری را نشان می‌دهد. کلاهبردار ابتدا یک کلیپ صوتی کوتاه به اندازه سه ثانیه را از یک پست آنلاین دریافت کرده و آن را به یک مدل هوش مصنوعی می‌دهد تا پیامی تقریباً واقعی با جا زدن خود به عنوان یک دوست یا یکی از عزیزان شخص هدف ایجاد کند. مدل صدای ساخته شده با هوش مصنوعی حتی قادر است با شخص هدف مکالمه ایجاد کند.

با این حال، کلاهبرداری یا برنامه‌های دستکاری شده تنها استفاده غیرقانونی از هوش مصنوعی نیست. تبعیض یکی دیگر از مشکلات قدیمی است که هوش مصنوعی می‌تواند آن را تشدید کند. کمیسیون فرصت‌های شغلی برابر (EEOC) هشدار داده است که استفاده از مدل‌های هوش مصنوعی به هنگام استخدام، نظارت بر عملکرد کارگران و تعیین دستمزد یا ترفیع می‌تواند نتایج تبعیض‌آمیزی که خلاف قوانین فدرال است ایجاد کند. وزارت دادگستری هم در اقدامی مشابه درباره تبعیض ناشی از به کارگیری هوش مصنوعی برای غربال‌گری و انتخاب از میان درخواست‌های اجاره‌ای هشدار داده است.

دولت بایدن چهار آژانس نظارتی کشور، EEOC و FTC و وزارت دادگستری (DOJ) و هیئت حمایت مالی از مصرف‌کننده (CFPB) را گرد هم آورد تا ایجاد یک رویکرد با اعمال قوانین موجود برای مقابله با افزایش سوءاستفاده‌های سنتی از طریق هوش مصنوعی را اعلام کند. این رویکرد مبتنی بر اثر می‌تواند مدلی برای نظارت بر محتوای اصلی هوش مصنوعی باشد: تمرکز کمتر روی فناوری و آن چه ارائه می‌دهد. در این مورد، آن اثرات از قبل توسط مرجع قانونی موجود پوشش داده شده‌اند. آن چه که لازم است، ابتکارات نظارتی هستند.

لینا خان (Lina Khan) رئیس FTC در بیانیه‌ای مختصر که شایسته است بر درب هر آژانس نظارتی نصب شود گفت: «هوش مصنوعی از قواعد و قوانین موجود مستثنی نیست».

مقابله با سوءاستفاده‌های دیجیتالی مداوم

ابتکار بعدی مبتنی بر اثرات هوش مصنوعی حول این موضوع است که چگونه سوءاستفاده‌های دیجیتالی در حال وقوع که هنوز نظارت مؤثری بر آن‌ها انجام نشده است می‌تواند توسط هوش مصنوعی تقویت شود. آسیب‌هایی مانند نقض حریم خصوصی، گسترش بازار‌های غیر رقابتی، فریب افراد، نشر و گسترش اطلاعات نادرست، نفرت و دروغ که به وفور در فضای آنلاین مشاهده می‌شوند می‌توانند با هوش مصنوعی تشدید گردند. پرداختن به این موضوع که چگونه هوش مصنوعی باعث تشدید این مشکلات می‌شود با بررسی عواقب پایه خود فعالیت‌های دیجیتال آغاز می‌شود، فعالیت‌هایی که ناشی از تصمیم‌های اتخاذ شده توسط همان شرکت‌هایی هستند که در خط مقدم هوش مصنوعی قرار دارند.

برای دهه‌ها، سیاست‌گذاران در رسیدگی به مسأله آستانه عصر دیجیتال موفق عمل نکرده‌اند، این که چگونه شرکت‌های دیجیتالی بزرگ اطلاعات شخصی را جمع‌آوری می‌کنند، دارایی‌های شرکتی خود را برای حفظ کنترل بر بازار احتکار می‌کنند و از تسلط بازاری‌ای که دارند برای کنترل اطلاعات دریافتی مصرف‌کنندگان استفاده می‌کنند. در عملکرد مدل‌های هوش مصنوعی چیزی وجود ندارد که بتواند این سوءاستفاده‌ها را تغییر دهد، با این حال همه ابزار لازم برای تسریع گسترش و تشدید این سوءاستفاده‌ها توسط شرکت‌های برتر در حوزه هوش مصنوعی در این واقعیت جدید وجود دارد.

یکی از عادات در بهره‌برداری دیجیتالی، جمع‌آوری اطلاعات شخصی افراد است. تاریخچه پلتفرم‌های آنلاین پر از داده‌های شخصی جمع‌آوری شده‌ای است که جهت افزایش دقت در هدف‌یابی شرکت‌ها و فروش آن به تبلیغ‌کنندگان بوده است. شرایط حال و آینده هوش مصنوعی شامل گسترش مداوم فعالیت‌های جمع‌آوری و استفاده از داده‌هاست.

مدل‌های زبان بزرگ (LLM) که هوش مصنوعی مولد را هدایت می‌کنند، طبق تعریف در حال رشد و گسترش هستند. از بهار سال ۲۰۲۳ گزارش شده است که چت جی‌پی‌تی ۴ دارای یک تریلیون پارامتر بوده که شش برابر بیشتر از چت جی‌پی‌تی ۳ است (یک پارامتر، مقیاس ورودی داده‌های آموزشی را اندازه‌گیری می‌کند. هر چه پارامتر افزایش یابد، دقت بالا می‌رود). این شامل جمع‌آوری مقادیر زیادی از آن چه کاربران سرویس‌های آنلاین نوشته، فیلمبرداری یا بیان کرده‌اند می‌شود. شیوه‌های تجاوز به حریم خصوصی که شرکت‌های پلتفرمی مانند آلفابت گوگل، متا فیسبوک، مایکروسافت و دیگران دنبال می‌کنند موجب ایجاد مشکلات شناخته شده امروزی گشته‌اند. اکنون که همین شرکت‌ها در حال مجهز شدن به هوش مصنوعی هستند باید انتظار اجرایی شدن شیوه‌های غیر قانونی برای نفوذ بیشتر به حریم خصوصی با نظارت تصویری و صوتی کاربران با هوش مصنوعی باشیم.

پتانسیل استفاده از روش‌های کنترل داده برای کنترل بازار‌ها هم در زمینه هوش مصنوعی گسترش یافته است. دقیق‌تر شدن مدل‌های هوش مصنوعی با گسترش داده‌هایی که طبق آن‌ها آموزش داده شده‌اند نشان می‌دهد که شرکت‌هایی با بیش‌ترین حجم داده‌های ذخیره‌ای از مزیت بیشتری نسبت به بقیه برخوردارند. جای تعجب نیست که شرکت‌های پیشرو در خدمات هوش مصنوعی همان شرکت‌هایی هستند که از جمع‌آوری و احتکار اطلاعات کاربران خود بیشترین نفع را برده‌اند. توان محاسباتی گسترده که هر یک از شرکت‌ها برای ارائه خدمات اصلی خود می‌بایست آن را تقویت می‌کردند، مزیت دیگری محسوب می‌شود، چون اکنون برای محاسبات سنگین هوش مصنوعی به کار می‌آیند.

هوش مصنوعی همچنین می‌تواند سیل اطلاعات نادرست یا منع توزیع اطلاعات را که مشخصه عصر دیجیتال بوده است افزایش دهد. تاکنون شرکت‌های پلتفرمی علی‌رغم تبدیل شدن به منابع اصلی خبر و اطلاعات، در پذیرش استاندارد‌های روزنامه‌نگاری شکست خورده‌اند. شریل سندبرگ (Sheryl Sandberg) زمانی که مدیر عملیات فیسبوک بود گفت: «ما با شرکت‌های رسانه‌ای فرق داریم. در اصل ما یک شرکت فنی هستیم و مهندس استخدام می‌کنیم، نه خبرنگار». معرفی قابلیت هوش مصنوعی در ایجاد تصاویر، اصوات و متون غیرواقعی به شرکت‌هایی که از قبل خود را بالاتر از هر گونه مسئولیت سردبیری یا سرپرستی می‌دانند فقط می‌تواند به آلودگی اطلاعاتی بی‌افزاید و حقایق را تضعیف کند.

چالش‌هایی که تاکنون در عصر دیجیتال مورد توجه قرار نگرفته بودند حالا با گسترش دنیای هوش مصنوعی به مسائل بزرگ‌تری تبدیل شده‌اند و باید برطرف شوند. بدون رسیدگی به عواقب فعالیت‌های پایه پلتفرم‌های دیجیتال بزرگ نمی‌توان با گسترش و افزایش تصاعدی حملات به حریم خصوصی، رقابت، دستکاری، فریب و نشر اطلاعات غلط مقابله کرد. این موضوع زمانی اهمیت بیشتری پیدا می‌کند که آن دسته از شرکت‌هایی که در وهله اول باعث ایجاد مشکلات شده‌اند بر هوش مصنوعی تسلط پیدا کنند.

مقابله با خود هوش مصنوعی

دو بخش فرعی قبلی مربوط به تأثیرات شناخته شده هوش مصنوعی بودند و آسیب‌هایی که می‌دانیم هوش مصنوعی می‌تواند تشدیدشان کند. اما هوش مصنوعی طیفی از موارد ناشناخته را که از بسیار مفید تا مضر متغیر است در بر می‌گیرد. در حالی که برخی افراد از تأثیرات دیستوپیایی هوش مصنوعی می‌ترسند، نباید این اجازه را داد که چنین بحثی تصمیمات مربوط به اثراتی که امروز و در آینده نزدیک می‌گذارد را منحرف سازد. این تصمیمات گرفته شده در رابطه با توسعه و بهره‌برداری از مدل‌های هوش مصنوعی توسط انسان‌ها هستند که پیامد‌های کوتاه و بلندمدت این مدل‌ها را تعیین می‌کند.

بخش بعدی (چالش سوم) یک رویکرد جدید نظارتی پیشنهاد می‌کند که به اندازه کافی سریع است تا به اثرات ناشناخته منفی‌ای که هوش مصنوعی دارد پاسخ دهد. با این حال قبل از پرداختن به اجرای تنظیمات، بهتر است چهار گوشه دخالت نظارتی یعنی مراقبت، شفافیت، امنیت و مسئولیت‌پذیری را تعریف کنیم.

هرگونه نظارت با مسئولیت‌پذیری شرکت‌ها برای اعمال قانون مشترک مراقبت آغاز می‌شود. مراقبت اساساً به معنی این است که ارائه دهنده کالا یا خدمات مسئولیت شناسایی و کاهش اثرات سوء بالقوه را دارد. عدم انجام چنین وظیفه‌ای می‌تواند منجر به اقدامات قانونی از جمله تنظیم مقررات شود.

شفافیت ابزاری است که بینش مستمری درباره شناسایی و کاهش خطرات تکاملی هوش مصنوعی ارائه می‌دهد. چنین شفافیتی با تحقیق در مورد نحوه عملکرد مدل‌ها آغاز می‌شود. بعد از ساختن جعبه سیاه الگوریتمی، حتی ارائه‌دهندگان هوش مصنوعی هم اغلب نمی‌دانند دقیقاً اختراعات‌شان چه کاری انجام می‌دهد. دسترسی نمایندگان دانشگاهی، دولتی و مدنی به مدل‌ها کمک می‌کند تا تهدیدات جدید مورد پیگیری قرار بگیرند و پرده از جعبه سیاه برداشته شود.

شفافیت برای کاربران هوش مصنوعی هم مهم است. مشخص بودن مدل و منبع هوش مصنوعی‌ای که یک مصرف‌کننده با آن تعامل دارد می‌تواند تعادل بین الگوریتم و کاربر را حفظ کند. به طور مشابه، اعلام این که محصول نهایی (مخصوصاً صدا و تصویر) توسط هوش مصنوعی تولید شده است می‌تواند سردرگمی مصرف‌کننده را برطرف سازد. علاوه بر این، شفافیت به کاهش تعصب الگوریتمی کمک می‌کند. مثلاً نیویورک در حال اجرای قانون جدیدی است که کارفرمایان را ملزم می‌سازد تا متقاضیان کار را از دخالت هوش مصنوعی در بررسی درخواست‌ها و ارائه چنین سیستم‌هایی به ممیزی‌های شخص ثالث مطلع سازند.

امنیت، خروجی شفافیت (یعنی شناسایی مشکلات) و اصول مربوط به خود است. مثلاً ترس دیستوپیایی باید ما را ترغیب کند تا اطمینان حاصل کنیم که هوش مصنوعی تحت نظارت انسان باقی می‌ماند. با این حال چنین عامل انسانی یک راه حل امنیتی کلی نیست، چون رقابت، تخلف یا حتی یک خطای ساده هم می‌تواند منجر به معرفی تهدید‌های جدید شود.

دستورالعمل‌های پایه برای اقدامات ایمن هوش مصنوعی در چارچوبی برای مدیریت ریسک هوش مصنوعی توسط مؤسسه ملی استاندارد و فناوری (NIST) ارائه شده است. چارچوب داوطلبانه مؤسسه ملی استاندارد و فناوری رویکرد‌هایی را شناسایی می‌کند که در راستای افزایش اعتماد نسبت به سیستم‌های هوش مصنوعی می‌شود و به تقویت طراحی، توسعه، استقرار و استفاده مسئولانه از سیستم‌های هوش مصنوعی کمک می‌کند. این باید نیاز حداقلی در نظارت بر هوش مصنوعی باشد.

اصل مسئولیت‌پذیری در قلب طرح کاخ سفید برای منشور حقوق هوش مصنوعی قرار دارد. هر یک از حقوق پنج‌گانه آن با شرحی از نحوه پذیرش حقوق توسط مسئولان در فعالیت‌های خود همراه است.

وظیفه مراقبت، یک انتظار قابل اجرا را ایجاد می‌کند. شفافیت، امنیت و مسئولیت تا زمانی که به عنوان انتظارات از طریق مقررات تثبیت شوند، ایده‌آل‌هایی بیش نیستند.

چالش سوم: تنظیم‌کننده کیست و چگونه این کار را انجام می‌دهد؟

تاکنون در عرصه دیجیتال ایالات متحده، مبتکران قوانین را وضع کرده‌اند و آن هم به این دلیل که دولت در انجام این کار کوتاهی کرده است. کاملاً طبیعی است که چنین قوانینی به نفع وضع‌کننده باشد. با توافق کلی مبنی بر این که باید سیاست‌هایی مربوط به هوش مصنوعی وجود داشته باشد این سؤال پیش می‌آید که چه کسی این سیاست‌ها را ایجاد خواهد کرد؟

مزیت پیشگام بودن

زمانی که چت جی‌پی‌تی ساخته شده توسط OpenAI از دیگر مدل‌های هوش مصنوعی پیشی گرفت و رسانه‌ای شد، مزیت پیشرو بودن در بازار را به دست آورد. گوگل در سال ۲۰۱۴ قبل از خرید دیپ مایند که یک آزمایشگاه تحقیقاتی هوش مصنوعی بریتانیایی است، روی هوش مصنوعی کار می‌کرد، اما این خبر جو را متشنج ساخت. در یکی از تیتر‌ها نوشته شده بود که چت جی‌پی‌تی می‌تواند گوگل را ظرف دو سال حذف کند! یکی از مدیران سابق گوگل در توییتی نوشت: «شاید فقط یک یا دو سال تا فروپاشی کامل گوگل باقی مانده باشد.

هوش مصنوعی باعث حذف صفحه نتایج موتور‌های جستجو که بیشترین درآمدزایی را دارد خواهد شد». گوگل با از دست دادن مزیت پیشگامی، با راه‌اندازی ربات چت هوش مصنوعی خود به نام بارد سریعاً به یکی از دنبال‌کنندگان ترند تبدیل شد.

به لطف بهم پیوستگی شبکه‌های قرن بیست و یکم، دولتی که اولین مجموعه قوانین را وضع می‌کند می‌تواند در این حوزه رهبری و هدایت کشور‌های دیگر را در دست بگیرد. نمونه کلاسیکی از این موضوع، مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) است که به استانداردی برای سیاست حفظ حریم خصوصی در سراسر جهان تبدیل شده است.

بار دیگر به نظر می‌رسد اتحادیه اروپایی که با قانون بازار‌های دیجیتال و خدمات دیجیتال خود در ایجاد سیاست پلتفرم دیجیتال پیشتاز بوده است، در ایجاد سیاست هوش مصنوعی هم پیشتاز باشد. در ۱۴ ژوئن ۲۰۲۳، پارلمان اروپا با اکثریت قاطع قانون هوش مصنوعی را تصویب کرد. به زودی دستگاه نظارتی کمیسیون اروپا شروع به توسعه سیاست‌های قابل اجرا خواهد کرد.

این که آیا ایالات متحده در زمینه نظارت بر هوش مصنوعی همانند گوگل می‌تواند سریعاً اقدام کند یا خیر، مشخص نیست. در هر صورت زمان در حال سپری شدن است. موفقیت نفر بعد به مدت زمان سپری شده بستگی دارد.

تنظیم‌کننده کیست؟

سم آلتمن در جلسه ۱۶ مه ۲۰۲۳ اعلام کرد که طرفدار ایجاد یک آژانس فدرال مخصوص نظارت بر هوش مصنوعی است. برد اسمیت (Brad Smith) و مارک زاکربرگ (Mark Zuckerberg) قبلاً اظهار داشتند که نیاز به تنظیم‌کننده دیجیتال فدرال وجود دارد.

دو روز بعد از جلسه استماع، سناتور مایکل بنت (Michael Bennet) و پیتر ولش (Peter Welch) لایحه‌ای را برای ایجاد کمیسیون پلتفرم دیجیتال (DPC) ارائه دادند. این لایحه نه تنها موضوع ایجاد یک آژانس جدید با اختیارات نظارت بر چالش‌های تحمیل شده توسط فناوری دیجیتال و هوش مصنوعی را در بر می‌گیرد، بلکه شامل یک رویکرد مبتنی بر ریسک با سرعت عمل بالا برای توسعه این مقررات هم می‌شود. بر اساس گزارش‌ها، سناتور لینزی گراهام (Lindsey Graham) و سناتور الیزابت وارن (Elizabeth Warren) هم روی یک پیشنهاد برای آژانس دیجیتال همکاری می‌کنند. چالشی که کنگره ایالات متحده با آن روبروست این است که به اندازه مبتکران انقلاب دیجیتال، در تفکر و اقدامات خود درباره یک آژانس جدید و عملیات آن خلاقانه عمل کنند.

نحوه تنظیم: صدور مجوز

سم آلتمن در شهادت خود در جلسه سنا پیشنهاد کرد که آژانس جدید مسئول صدور مجوز و لغو آن جهت تضمین مطابقت با استاندارد‌های ایمنی باشد. برد اسمیت هم پیشنهادی مشابه ارائه کرد. دولت فدرال مدت‌هاست که مسئولیت صدور مجوز برای فعالیت‌های خاص را داشته است. کمیسیون ارتباطات فدرال (FCC) مسئولیت مجوزدهی به طیف امواج رادیویی و تلویزیونی، ارتباطات ماهواره‌ای و دستگاه‌های تلفن همراه را دارد. کمیسیون تنظیم مقررات هسته‌ای (NRC)، به مواد هسته‌ای و تأسیسات راکتوری مجوز می‌دهد. انواع مجوز از جمله حفاری، ماهیگیری تجاری و فعالیت‌های هواپیمایی وجود دارند. همراه با این مجوز‌ها، دستورالعمل‌هایی برای نحوه فعالیت ایجاد شده‌اند.

با این حال، مجوز‌ها هم به عنوان ابزار‌های نظارتی اشکالاتی دارند. در میان آن‌ها، مجوز‌ها باعث تقویت موقعیت استراتژیک دریافت‌کننده می‌شوند؛ بنابراین جای تعجب نیست که شرکت‌های غالب بر هوش مصنوعی حامی چنین رویکردی باشند. گرفتن مجوز فدرال شبیه به ایجاد یک خندق در اطراف قلعه و بالا کشیدن پل متحرک است. اجبار کردن یک رقیب بالقوه به دریافت مجوز، رقابت انجمن را از بازار تجاری بر سر تبدیل شدن به مرجع صدور مجوز بازتعریف می‌کند. به این ترتیب، مجوز با ایجاد مانعی برای ورود به عرصه و افزایش هزینه‌ها برای هر کسی که خواستار آن موقعیت است، میزان تسلط و چیرگی را تقویت می‌کند.

با این که ایجاد آژانس فدرال جدید مهم است، نحوه عملکرد آن هم از اهمیت بالایی برخوردار است. شاید نیاز به نوعی مجوز وجود داشته باشد، اما مشکلات رقابتی نشان می‌دهد که راه‌حل تک مرحله‌ای جوابگو نیست.

نحوه تنظیم: سرعت عمل مبتنی بر ریسک

عصر دیجیتال نه تنها به یک آژانس متمرکز نیاز دارد، بلکه این آژانس باید قابلیت اجتناب از عملیات با سبک صنعتی را داشته باشد تا بتواند اشکال جدید نظارت از جمله به کارگیری هوش مصنوعی را داشته باشد. چنین نظارتی باید به جای مدیریت خرد فناوری، بر کاهش اثرات آن متمرکز باشد. این به معنای تکامل اخلاق نظارتی از مدیریت خرد به مقررات مبتنی بر ریسک با سرعت عمل بالاست.

این رویکردی است که اتحادیه اروپا در توسعه نظارت بر هوش مصنوعی اتخاذ کرده است. اولین مؤلفه چنین نظارتی با درک این موضوع آغاز می‌شود که، چون تأثیرات فناوری دیجیتال یکنواخت نیست، یک راه‌حل نظارتی برای همه نوع شرایط پاسخگو نیست. برای انجام این کار، اتحادیه اروپا یک تجزیه و تحلیل چند لایه و مبتنی بر اثرات برای هوش مصنوعی دارد که تشخیص می‌دهد موارد استفاده متعدد و متنوع برای هوش مصنوعی با تفاوت‌هایی در کاربرد، پذیرش و ریسک ذاتی همراه است.

بر اساس ارزیابی سطح ریسک، انتظارات رفتاری متفاوتی اعمال خواهد شد. به عنوان مثال، نظارتی که ممکن است برای فیلتر اسپم‌ها به کمک هوش مصنوعی لازم باشد، با هوش مصنوعی‌ای که امنیت شخصی افراد را تهدید می‌کند کاملاً متفاوت خواهد بود.

نحوه تنظیم: نقشه

با انتخاب تحلیل ریسک به عنوان مبنای نظارتی این سؤال ایجاد می‌شود که چگونه نظارتی را طراحی کنیم که اثر خطر شناسایی شده را بدون ضربه زدن به نوآوری و سرمایه‌گذاری کاهش دهد. برای تحقق این امر، کنگره که به تکنیک‌های مدیریت صنعتی برای آژانس‌های نظارتی در عصر صنعتی توجه داشته است اکنون باید به دنبال تقلید از شیوه‌های شرکت‌های دیجیتالی باشد.

در قلب سیستم‌های مدیریت دیجیتال استاندارد‌هایی برای فناوری وجود دارد. این استاندارد‌ها توسط شرکت‌های تحت تأثیر برای پیش‌بینی و کاهش مشکلات عملیاتی ناخواسته مانند عدم توانایی همکاری اجزاء با یکدیگر طراحی شده‌اند. این فرآیند همچنین مکانیزمی است که تضمین می‌کند استاندارد با تغییر تکنولوژی تکامل می‌یابد. چنین استاندارد‌هایی در همه جا وجود دارد، اما یک مثال بارز استاندارد تلفن همراه است. تکامل از فناوری نسل اول (G۱)، به ۲G، ۳G، ۴G، و اکنون ۵G (با استانداردسازی ۶G در حال انجام) نشان می‌دهد که چگونه استاندارد‌ها با فناوری جدید و فرصت‌های جدید بازار همگام می‌شوند.

مشکل این است که این استاندارد‌ها در مورد مسائل فنی که شرکت‌ها با آن مواجه هستند اعمال می‌شود. آن چه که مورد توجه قرار نمی‌گیرد، مسائل رفتاری ناشی از کاربرد فناوری است. نظارت سریع، فرآیندی استاندارد مانند برای توسعه استاندارد‌های رفتاری که به عنوان کد‌های رفتاری بیان می‌شود را اتخاذ خواهد کرد که قابل اجرا توسط آژانس جدید خواهد بود. چنین رویکرد شفاف، پاسخگو و سریع را در قالب مراحل زیر در نظر بگیرید:

  • آژانس دیجیتالی مسائلی را که باید به آن‌ها رسیدگی شود را شناسایی و یک جدول زمانی برای فرآیند تنظیم کد تعیین می‌کند.
  • سپس آژانس گزارش مفصل خود را در مورد رفتار (های) مشکل ساز، همراه با راه حل‌هایی که باید در نظر گرفته شود، ارائه می‌کند. این تحلیل همانند خلاصه دادستانی است که موضوع (های) لازم جهت رسیدگی را بیان می‌دارد.
  • پاسخ پیشنهادی به مأموریت آژانس توسط یک گروه از کارشناسان ذینفع ارائه می‌شود که نماینده طرف‌های ذینفع و/یا متأثر از صنعت، جامعه مدنی و دولت (از جمله خود آژانس) هستند.
  • در همان روز یا قبل از مهلت تعیین شده، این گروه کد پیشنهادی خود را برای تأیید یا ویرایش به آژانس ارائه می‌کند.
  • پس از تصویب، کد جدید به سیاست قابل اجرا توسط آژانس تبدیل می‌شود.
  • تجزیه و تحلیل‌های یک گروه مشاور صنعتی-دانشگاهی-مدنی نتایج سیاست در حال اجرا را نشان داده و مسائل جدید و در حال ظهور را شناسایی خواهد کرد تا کل فرآیند دوباره آغاز شود.

چنین واگذاری توسعه کد قابل اجرا با تأیید آژانس بعدی، مدل جدیدی در دولت نیست. سازمان تنظیم مقررات صنعت مالی (FINRA) جنبه‌های بازار‌های مالی را از طریق کد توسعه یافته صنعتی که توسط کمیسیون بورس و اوراق بهادار (SEC) نظارت می‌شود، تنظیم می‌کند. شرکت معتبر انرژی آمریکای شمالی (NERC) توسط کنگره پس از قطعی متعدد برق تحت رهبری گروهی صنعتی برای توسعه سیاست‌هایی جهت جلوگیری از خاموشی ایجاد شد که توسط کمیسیون تنظیم مقررات انرژی فدرال (FERC) نظارت می‌شود.

هماهنگی و همکاری

همه مقررات مدرن در تلاش برای حفظ تعادل بین حفاظت از منافع عمومی و ترویج نوآوری و سرمایه‌گذاری ایجاد می‌شوند. در عرصه هوش مصنوعی، حفظ تعادل به معنای پذیرش این موضوع است که انواع کاربرد‌های هوش مصنوعی خطرات متفاوتی به همراه دارند و نیاز به طراحی نقشه‌ای است که بتواند مقررات را با خطرات جفت سازد و در عین حال از مدیریت خرد نظارتی اجتناب کند.

گزارش‌های مطبوعاتی حاکی از بروز اختلافات در دولت بایدن بر سر مقررات هوش مصنوعی است. یک گروه از اقداماتی همانند اتحادیه اروپا حمایت می‌کند و گروه دیگر نگران است که این اقدامات جلوی نوآوری را بگیرد. با این حال، گزینه‌هایی بیشتر از این دو هم وجود دارد.

یک طرح نظارت بر هوش مصنوعی آمریکایی می‌تواند در عین حال که نوآوری را حفظ می‌کند، از منافع عمومی هم محافظت نماید. راه حل آن کنار گذاشتن مقررات مبتنی بر مفروضات مدیریت صنعتی و پذیرش تکنیک‌های مدیریت دیجیتالی سریع است. شرکت‌های دیجیتالی مدت‌ها پیش این تغییر رویه را انجام دادند. زمان آن فرا رسیده که دولت آمریکا هم چنین تغییری را دنبال کند.

این توصیه لینکلن (Lincoln) در بیش از صد و شصت سال پیش که در برخورد با موضوع جدید باید روش تفکر جدید و اقدام جدید در پیش گرفت، در عصر امروزی درباره هوش مصنوعی صدق می‌کند.