تام ویلر (Τom Wheeler) در یادداشتی در وبسایت اندیشکدهی Brookings سه چالش اصلی در تنظیم مقررات هوش مصنوعی را برمیشمارد.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
تعداد شرکتهای هوش مصنوعی که خواستار تنظیم مقررات دولتی در رابطه با نحوه فعالیتشان هستند، در حال افزایش است:
ریچارد دوربین (Richard Durbin) رئیس کمیته قضایی سنا گفت از آن جایی که نمایندگان شرکتهای بزرگ پیش ما آمده و از ما درخواست میکنند تا مقرراتی برای آنها تنظیم کنیم میتوانم بگویم که ما در دورهای تاریخی قرار داریم.
درست همان لحظهای که به نظر میرسید هوش مصنوعی میتواند زمینه را برای سوءاستفاده گرگهای بره نما فراهم کند، صلح و هماهنگی در برابر واقعیت قرار گرفت. بُعد دشواری گذر از یک بحث عمومی درباره مقررات هوش مصنوعی و اجرای آن با آنچه در ادامه اتفاق افتاد مشخص شد:
آقای آلتمن در راستای اظهارات همتایان اروپایی خود گفت که جزئیات واقعاً مهم هستند. این جزئیات سه چالش را برای نظارت بر هوش مصنوعی ایجاد میکند: رسیدگی به سرعت پیشرفت هوش مصنوعی، تجزیه و تحلیل مواردی که باید تنظیم شوند و تعیین این که چه کسی و چگونه مقررات را تنظیم کند.
چالش اول: سرعت (مشکل ملکه سرخ)
در «آن سوی آینه» اثر لوئیس کارول (Lewis Carroll) در سال ۱۸۷۱، ملکه سرخ به آلیس میگوید: «حالا برای این که در همین موقعیت بمانی باید تا میتوانی بدوی، اما اگر میخواهی موقعیتت را تغییر دهی باید دو برابر سریعتر از این بدوی». این توصیهای ارزشمند برای نظارت در عصر سریع تحولات هوش مصنوعی است.
مدتی میشود که هوش مصنوعی در پشت پرده و بدون سر و صدا در حال تکامل است. زمانی که گوگل به صورت خودکار نتایج جستجو را نشان میدهد یا آمازون کتابی را پیشنهاد میکند، هوش مصنوعی دخیل است. در نوامبر ۲۰۲۲ با راهاندازی چت جیپیتی ۳، هوش مصنوعی از پشت پرده خارج شد و به جای این که ابزاری برای مهندسان نرمافزار باشد به ابزاری تبدیل شد که مردم عادی بدون نیاز به تخصص فنی بتوانند از آن استفاده کنند. کاربران با استفاده از چت جیپیتی میتوانند با یک ربات هوش مصنوعی مکالمه داشته باشند و از آن بخواهند به جای نوشتن کد، یک نرمافزار طراحی کند. چهار ماه بعد از راهاندازی چت جیپیتی، سازندگان آن از چت جیپیتی ۴ رونمایی کردند. این نسخه از جدیدترین مدل پایه زبان بزرگ (LLM) استفاده میکند و به ادعای OpenAI عملکردی در سطح قابلیتهای انسانی در انواع وظایف دارد. چت جیپیتی به عنوان سریعترین وبسایت در حال رشد در تاریخ ثبت شد و توانست بیش از صد میلیون کاربر طی دو ماه جذب کند.
ناگهان عرصه هوش مصنوعی رقابتی شد. مایکروسافت بعد از سرمایهگذاری ۱۳ میلیارد دلاری خود در OpenAI، چت جیپیتی را به محصولات خود از جمله بینگ اصلاح شده و مجهز به هوش مصنوعی اضافه کرد. گوگل که در سال ۲۰۱۶ با مدل هوش مصنوعی DeepMind خود توانست قهرمان انسانی را در بازی چینی Go شکست دهد، بلافاصله خبر از راهاندازی ربات چت بارد (Bard) داد. مارک زاکربرگ مدیر عامل متا به کارمندان خود گفت: «بزرگترین سرمایهگذاری ما در حوزه پیشرفت هوش مصنوعی و مجهز ساختن همه محصولاتمان به این فناوری است». چندین شرکت کوچکتر به لطف در دسترس بودن کد منبع باز در تلاش برای رقابت در حوزه هوش مصنوعی هستند.
همانطور که ساتیا نادلا (Satya Nadella) مدیر عامل مایکروسافت در زمان رونمایی از بینگ پیشرفته شرکتش گفت، از همین الان رقابتی که انتظارش را داشتید آغاز میشود. چالش اصلی اینجاست که چگونه میتوان از منافع عمومی در رقابتی که سریعترین مسابقه در تاریخ است و بدون داور برگزار میشود، محافظت کرد.
برای جلوگیری از بیپروا شدن رقابت بر سر هوش مصنوعی بین شرکتها لازم است که قوانینی ایجاد و اجرا شوند. با این حال با توجه به سرعت بالای تحولات هوش مصنوعی، شاید رسیدگی به این مسائل از تخصص و اختیارات فعلی دولت فدرال فراتر باشد. قوانین و ساختارهای نظارتی در دسترس دولت امروز بر اساس مفروضات عصر صنعتی ایجاد شدهاند که همان دهههای اول عصر پلتفرم دیجیتال توانست از این چارچوبها پیشی بگیرد. قوانین موجود برای پایاپایی با سرعت توسعه هوش مصنوعی کافی نیستند.
اریک اشمیت (Eric Schmidt) رئیس اجرایی سابق گوگل و حامی هوش مصنوعی هشدار داده است: «هیچ یک از مقامات دولتی نمیتواند نظارت بر هوش مصنوعی را به درستی انجام دهد». آقای اشمیت نیاز به انتظارات رفتاری را درک میکند. او ترجیح میدهد که شرکتهای فعلی مرزهای معقولی را تعریف کنند. چنین رویکرد خودتنظیمی همان کاری است که شرکتهای پلتفرم دیجیتال طی ۲۰ سال گذشته طرفدارش بودند. عواقب این استراتژی آسیبهای آنلاین کنونی مانند تجاوز بیسابقه به حریم خصوصی و شخصی، تمرکز بازاری، فریب کاربران، انتشار نفرت، دروغ و اطلاعات نادرست بوده است. هوش مصنوعی به اقدامی بیشتر و بهتر از خود تنظیمی شرکتی نیاز دارد، چون میدانیم که تلاش برای کسب سود باعث نادیده گرفته شدن مقررات خواهد شد.
اجازه دادن به شرکتها برای داشتن فعالیتهایی شبه دولتی و وضع قوانین خودخواسته برای کنترل هوش مصنوعی تکرار اشتباه همانند زمانی است که قبلاً به شرکتها اجازه وضع قوانین برای پلتفرمهای آنلاین داده شده بود. همانطور که سناتور ریچارد بلومنتال (Richard Blumenthal) توضیح داده است: «کنگره در رابطه با رسانههای اجتماعی نتوانست به درستی اقدام کند. اکنون ما موظفیم قبل از عملی شدن و به وقوع پیوستن تهدیدات و خطرات، در زمینه هوش مصنوعی اقدام بکنیم».
مقابله با چالش سرعت بالای تحولات، موضوعی است که نیاز به تمرکز و سرعت عمل دارد به طوری که مسائل مربوط به هوش مصنوعی جزو وظایف و تمرکز اصلی یک آژانس باشد، به جای این که مسئولیت بر دوش مقامات فعلی قرار گیرد و آژانس سرعت عمل لازم را خلاف روشهای قدیمی مدیریت خرد نظارتی، برای همگام شدن با فناوری را داشته باشد.
کنگره در دوره صنعتی شدن، مقرراتی را بر مبنای دستورات فردریک تیلور (Frederick W. Taylor) که به تیلیوریسم معروف بود ایجاد کرد که میگفت تنها از طریق استانداردسازی اجباری روشها است که میتوان به نتایج رضایت بخشی دست یافت (با تأکید بر اصل). این یک رویکرد مدیریتی بود که عمدتاً به دلیل سرعت کُند نوآوری و روند پذیرش صنعتی شدن کار میکرد. همین سرعت پایین باعث شد که چنین فرماندهی و کنترل از طریق دستورات نظارتی در دولت اجرا شود.
شرکتهای فناوری به مدت چندین سال زیر بار چنین رویکردهای مدیریتی نرفتند. این شرکتها برای همگامی با سرعت بالای تحولات در فناوری و بازار، رویکردی مدیریتی با سرعت عمل بالا را دنبال میکنند که شفافیت، همکاری و پاسخگویی را به جای دستورات سلسله مراتبی در بر میگیرد. تنظیم مقررات با سرعت عمل بالا باید به روشی مشابه پاسخگویی انجام شود. برای تحقق این امر، کنگره باید به اندازه شرکتهای دیجیتالی مبتکرانه عمل کند.
انقلاب صنعتی بر پایه جایگزینی و/یا افزایش قدرت فیزیکی انسان بنا شد. هوش مصنوعی در حال جایگزینی و/یا افزایش قدرت شناختی انسان است. داشتن درکی نادرست از الزامات نظارتی مورد اول و الزامات مورد دوم به معنای ناتوانی در همگام شدن با سرعت تغییرات در عصر دیجیتال است که به ضرر مصرفکنندگان و شرکتها تمام میشود.
چالش دوم: چه چیزی را باید تنظیم کرد؟
از آن جایی که هوش مصنوعی قابلیت چند وجهی دارد، تنظیم فقط یک سری مقررات برای این که پاسخگوی همه نوع نیاز باشد ممکن نیست. برای مثال، هوش مصنوعیای که در بازی ویدیویی اعمال میشود تأثیر متفاوتی با هوش مصنوعیای دارد که میتواند امنیت زیرساختهای حیاتی را تهدید کند یا جان انسانها را به خطر بیندازد، پس باید به گونهای متفاوت با هر کدام برخورد شود؛ بنابراین مقررات هوش مصنوعی باید مبتنی بر ریسک و هدفمند تنظیم شوند. با ارائه تحلیلی در سه حوزه آستانه میتوان روند در نظر گرفتن مقررات مناسب در زمینه هوش مصنوعی را تسهیل بخشید.
مقابله با سوءاستفادههای قدیمی
هوش مصنوعی با یا بدون نیت خیر میتواند زمینه را برای فعالیتهای غیرقانونی فراهم سازد. هوش مصنوعی شاید یک فناوری جدید باشد، اما کاربرد بسیار بیشتری نسبت به سوءاستفادههای قدیمی دارد. در این زمینه میتوان با نگاه به ابزارهای نظارتی قدیمی، تهدیدات را شناسایی کرد.
به لطف هوش مصنوعی، کلاهبرداریهای مربوط به مصرفکننده و جرائم شرکتی چه از طریق ایمیل یا تلفن میتوانند به سطح پیچیدگی و بهرهوری بیسابقهای برسند. پیش از این، کلاهبرداری با ترکیب اجزایی مانند آدرس ایمیل یا شماره تلفن با یک متن پیام قانعکننده انجام میشد که طی آن اطلاعات لو رفته و جمعآوری میشد. حال با هوش مصنوعی امکان این که کل فرآیند به طور خودکار انجام شود وجود دارد، از انتخاب هدف گرفته تا ایجاد و تحویل پیام.
مشاور کمیسیون تجارت فدرال (FTC) با اشاره به کلاهبرداریهای صوتی مبتنی بر هوش مصنوعی، بینشی متفاوت از قدرت این فناوری را نشان میدهد. کلاهبردار ابتدا یک کلیپ صوتی کوتاه به اندازه سه ثانیه را از یک پست آنلاین دریافت کرده و آن را به یک مدل هوش مصنوعی میدهد تا پیامی تقریباً واقعی با جا زدن خود به عنوان یک دوست یا یکی از عزیزان شخص هدف ایجاد کند. مدل صدای ساخته شده با هوش مصنوعی حتی قادر است با شخص هدف مکالمه ایجاد کند.
با این حال، کلاهبرداری یا برنامههای دستکاری شده تنها استفاده غیرقانونی از هوش مصنوعی نیست. تبعیض یکی دیگر از مشکلات قدیمی است که هوش مصنوعی میتواند آن را تشدید کند. کمیسیون فرصتهای شغلی برابر (EEOC) هشدار داده است که استفاده از مدلهای هوش مصنوعی به هنگام استخدام، نظارت بر عملکرد کارگران و تعیین دستمزد یا ترفیع میتواند نتایج تبعیضآمیزی که خلاف قوانین فدرال است ایجاد کند. وزارت دادگستری هم در اقدامی مشابه درباره تبعیض ناشی از به کارگیری هوش مصنوعی برای غربالگری و انتخاب از میان درخواستهای اجارهای هشدار داده است.
دولت بایدن چهار آژانس نظارتی کشور، EEOC و FTC و وزارت دادگستری (DOJ) و هیئت حمایت مالی از مصرفکننده (CFPB) را گرد هم آورد تا ایجاد یک رویکرد با اعمال قوانین موجود برای مقابله با افزایش سوءاستفادههای سنتی از طریق هوش مصنوعی را اعلام کند. این رویکرد مبتنی بر اثر میتواند مدلی برای نظارت بر محتوای اصلی هوش مصنوعی باشد: تمرکز کمتر روی فناوری و آن چه ارائه میدهد. در این مورد، آن اثرات از قبل توسط مرجع قانونی موجود پوشش داده شدهاند. آن چه که لازم است، ابتکارات نظارتی هستند.
لینا خان (Lina Khan) رئیس FTC در بیانیهای مختصر که شایسته است بر درب هر آژانس نظارتی نصب شود گفت: «هوش مصنوعی از قواعد و قوانین موجود مستثنی نیست».
مقابله با سوءاستفادههای دیجیتالی مداوم
ابتکار بعدی مبتنی بر اثرات هوش مصنوعی حول این موضوع است که چگونه سوءاستفادههای دیجیتالی در حال وقوع که هنوز نظارت مؤثری بر آنها انجام نشده است میتواند توسط هوش مصنوعی تقویت شود. آسیبهایی مانند نقض حریم خصوصی، گسترش بازارهای غیر رقابتی، فریب افراد، نشر و گسترش اطلاعات نادرست، نفرت و دروغ که به وفور در فضای آنلاین مشاهده میشوند میتوانند با هوش مصنوعی تشدید گردند. پرداختن به این موضوع که چگونه هوش مصنوعی باعث تشدید این مشکلات میشود با بررسی عواقب پایه خود فعالیتهای دیجیتال آغاز میشود، فعالیتهایی که ناشی از تصمیمهای اتخاذ شده توسط همان شرکتهایی هستند که در خط مقدم هوش مصنوعی قرار دارند.
برای دههها، سیاستگذاران در رسیدگی به مسأله آستانه عصر دیجیتال موفق عمل نکردهاند، این که چگونه شرکتهای دیجیتالی بزرگ اطلاعات شخصی را جمعآوری میکنند، داراییهای شرکتی خود را برای حفظ کنترل بر بازار احتکار میکنند و از تسلط بازاریای که دارند برای کنترل اطلاعات دریافتی مصرفکنندگان استفاده میکنند. در عملکرد مدلهای هوش مصنوعی چیزی وجود ندارد که بتواند این سوءاستفادهها را تغییر دهد، با این حال همه ابزار لازم برای تسریع گسترش و تشدید این سوءاستفادهها توسط شرکتهای برتر در حوزه هوش مصنوعی در این واقعیت جدید وجود دارد.
یکی از عادات در بهرهبرداری دیجیتالی، جمعآوری اطلاعات شخصی افراد است. تاریخچه پلتفرمهای آنلاین پر از دادههای شخصی جمعآوری شدهای است که جهت افزایش دقت در هدفیابی شرکتها و فروش آن به تبلیغکنندگان بوده است. شرایط حال و آینده هوش مصنوعی شامل گسترش مداوم فعالیتهای جمعآوری و استفاده از دادههاست.
مدلهای زبان بزرگ (LLM) که هوش مصنوعی مولد را هدایت میکنند، طبق تعریف در حال رشد و گسترش هستند. از بهار سال ۲۰۲۳ گزارش شده است که چت جیپیتی ۴ دارای یک تریلیون پارامتر بوده که شش برابر بیشتر از چت جیپیتی ۳ است (یک پارامتر، مقیاس ورودی دادههای آموزشی را اندازهگیری میکند. هر چه پارامتر افزایش یابد، دقت بالا میرود). این شامل جمعآوری مقادیر زیادی از آن چه کاربران سرویسهای آنلاین نوشته، فیلمبرداری یا بیان کردهاند میشود. شیوههای تجاوز به حریم خصوصی که شرکتهای پلتفرمی مانند آلفابت گوگل، متا فیسبوک، مایکروسافت و دیگران دنبال میکنند موجب ایجاد مشکلات شناخته شده امروزی گشتهاند. اکنون که همین شرکتها در حال مجهز شدن به هوش مصنوعی هستند باید انتظار اجرایی شدن شیوههای غیر قانونی برای نفوذ بیشتر به حریم خصوصی با نظارت تصویری و صوتی کاربران با هوش مصنوعی باشیم.
پتانسیل استفاده از روشهای کنترل داده برای کنترل بازارها هم در زمینه هوش مصنوعی گسترش یافته است. دقیقتر شدن مدلهای هوش مصنوعی با گسترش دادههایی که طبق آنها آموزش داده شدهاند نشان میدهد که شرکتهایی با بیشترین حجم دادههای ذخیرهای از مزیت بیشتری نسبت به بقیه برخوردارند. جای تعجب نیست که شرکتهای پیشرو در خدمات هوش مصنوعی همان شرکتهایی هستند که از جمعآوری و احتکار اطلاعات کاربران خود بیشترین نفع را بردهاند. توان محاسباتی گسترده که هر یک از شرکتها برای ارائه خدمات اصلی خود میبایست آن را تقویت میکردند، مزیت دیگری محسوب میشود، چون اکنون برای محاسبات سنگین هوش مصنوعی به کار میآیند.
هوش مصنوعی همچنین میتواند سیل اطلاعات نادرست یا منع توزیع اطلاعات را که مشخصه عصر دیجیتال بوده است افزایش دهد. تاکنون شرکتهای پلتفرمی علیرغم تبدیل شدن به منابع اصلی خبر و اطلاعات، در پذیرش استانداردهای روزنامهنگاری شکست خوردهاند. شریل سندبرگ (Sheryl Sandberg) زمانی که مدیر عملیات فیسبوک بود گفت: «ما با شرکتهای رسانهای فرق داریم. در اصل ما یک شرکت فنی هستیم و مهندس استخدام میکنیم، نه خبرنگار». معرفی قابلیت هوش مصنوعی در ایجاد تصاویر، اصوات و متون غیرواقعی به شرکتهایی که از قبل خود را بالاتر از هر گونه مسئولیت سردبیری یا سرپرستی میدانند فقط میتواند به آلودگی اطلاعاتی بیافزاید و حقایق را تضعیف کند.
چالشهایی که تاکنون در عصر دیجیتال مورد توجه قرار نگرفته بودند حالا با گسترش دنیای هوش مصنوعی به مسائل بزرگتری تبدیل شدهاند و باید برطرف شوند. بدون رسیدگی به عواقب فعالیتهای پایه پلتفرمهای دیجیتال بزرگ نمیتوان با گسترش و افزایش تصاعدی حملات به حریم خصوصی، رقابت، دستکاری، فریب و نشر اطلاعات غلط مقابله کرد. این موضوع زمانی اهمیت بیشتری پیدا میکند که آن دسته از شرکتهایی که در وهله اول باعث ایجاد مشکلات شدهاند بر هوش مصنوعی تسلط پیدا کنند.
مقابله با خود هوش مصنوعی
دو بخش فرعی قبلی مربوط به تأثیرات شناخته شده هوش مصنوعی بودند و آسیبهایی که میدانیم هوش مصنوعی میتواند تشدیدشان کند. اما هوش مصنوعی طیفی از موارد ناشناخته را که از بسیار مفید تا مضر متغیر است در بر میگیرد. در حالی که برخی افراد از تأثیرات دیستوپیایی هوش مصنوعی میترسند، نباید این اجازه را داد که چنین بحثی تصمیمات مربوط به اثراتی که امروز و در آینده نزدیک میگذارد را منحرف سازد. این تصمیمات گرفته شده در رابطه با توسعه و بهرهبرداری از مدلهای هوش مصنوعی توسط انسانها هستند که پیامدهای کوتاه و بلندمدت این مدلها را تعیین میکند.
بخش بعدی (چالش سوم) یک رویکرد جدید نظارتی پیشنهاد میکند که به اندازه کافی سریع است تا به اثرات ناشناخته منفیای که هوش مصنوعی دارد پاسخ دهد. با این حال قبل از پرداختن به اجرای تنظیمات، بهتر است چهار گوشه دخالت نظارتی یعنی مراقبت، شفافیت، امنیت و مسئولیتپذیری را تعریف کنیم.
هرگونه نظارت با مسئولیتپذیری شرکتها برای اعمال قانون مشترک مراقبت آغاز میشود. مراقبت اساساً به معنی این است که ارائه دهنده کالا یا خدمات مسئولیت شناسایی و کاهش اثرات سوء بالقوه را دارد. عدم انجام چنین وظیفهای میتواند منجر به اقدامات قانونی از جمله تنظیم مقررات شود.
شفافیت ابزاری است که بینش مستمری درباره شناسایی و کاهش خطرات تکاملی هوش مصنوعی ارائه میدهد. چنین شفافیتی با تحقیق در مورد نحوه عملکرد مدلها آغاز میشود. بعد از ساختن جعبه سیاه الگوریتمی، حتی ارائهدهندگان هوش مصنوعی هم اغلب نمیدانند دقیقاً اختراعاتشان چه کاری انجام میدهد. دسترسی نمایندگان دانشگاهی، دولتی و مدنی به مدلها کمک میکند تا تهدیدات جدید مورد پیگیری قرار بگیرند و پرده از جعبه سیاه برداشته شود.
شفافیت برای کاربران هوش مصنوعی هم مهم است. مشخص بودن مدل و منبع هوش مصنوعیای که یک مصرفکننده با آن تعامل دارد میتواند تعادل بین الگوریتم و کاربر را حفظ کند. به طور مشابه، اعلام این که محصول نهایی (مخصوصاً صدا و تصویر) توسط هوش مصنوعی تولید شده است میتواند سردرگمی مصرفکننده را برطرف سازد. علاوه بر این، شفافیت به کاهش تعصب الگوریتمی کمک میکند. مثلاً نیویورک در حال اجرای قانون جدیدی است که کارفرمایان را ملزم میسازد تا متقاضیان کار را از دخالت هوش مصنوعی در بررسی درخواستها و ارائه چنین سیستمهایی به ممیزیهای شخص ثالث مطلع سازند.
امنیت، خروجی شفافیت (یعنی شناسایی مشکلات) و اصول مربوط به خود است. مثلاً ترس دیستوپیایی باید ما را ترغیب کند تا اطمینان حاصل کنیم که هوش مصنوعی تحت نظارت انسان باقی میماند. با این حال چنین عامل انسانی یک راه حل امنیتی کلی نیست، چون رقابت، تخلف یا حتی یک خطای ساده هم میتواند منجر به معرفی تهدیدهای جدید شود.
دستورالعملهای پایه برای اقدامات ایمن هوش مصنوعی در چارچوبی برای مدیریت ریسک هوش مصنوعی توسط مؤسسه ملی استاندارد و فناوری (NIST) ارائه شده است. چارچوب داوطلبانه مؤسسه ملی استاندارد و فناوری رویکردهایی را شناسایی میکند که در راستای افزایش اعتماد نسبت به سیستمهای هوش مصنوعی میشود و به تقویت طراحی، توسعه، استقرار و استفاده مسئولانه از سیستمهای هوش مصنوعی کمک میکند. این باید نیاز حداقلی در نظارت بر هوش مصنوعی باشد.
اصل مسئولیتپذیری در قلب طرح کاخ سفید برای منشور حقوق هوش مصنوعی قرار دارد. هر یک از حقوق پنجگانه آن با شرحی از نحوه پذیرش حقوق توسط مسئولان در فعالیتهای خود همراه است.
وظیفه مراقبت، یک انتظار قابل اجرا را ایجاد میکند. شفافیت، امنیت و مسئولیت تا زمانی که به عنوان انتظارات از طریق مقررات تثبیت شوند، ایدهآلهایی بیش نیستند.
چالش سوم: تنظیمکننده کیست و چگونه این کار را انجام میدهد؟
تاکنون در عرصه دیجیتال ایالات متحده، مبتکران قوانین را وضع کردهاند و آن هم به این دلیل که دولت در انجام این کار کوتاهی کرده است. کاملاً طبیعی است که چنین قوانینی به نفع وضعکننده باشد. با توافق کلی مبنی بر این که باید سیاستهایی مربوط به هوش مصنوعی وجود داشته باشد این سؤال پیش میآید که چه کسی این سیاستها را ایجاد خواهد کرد؟
مزیت پیشگام بودن
زمانی که چت جیپیتی ساخته شده توسط OpenAI از دیگر مدلهای هوش مصنوعی پیشی گرفت و رسانهای شد، مزیت پیشرو بودن در بازار را به دست آورد. گوگل در سال ۲۰۱۴ قبل از خرید دیپ مایند که یک آزمایشگاه تحقیقاتی هوش مصنوعی بریتانیایی است، روی هوش مصنوعی کار میکرد، اما این خبر جو را متشنج ساخت. در یکی از تیترها نوشته شده بود که چت جیپیتی میتواند گوگل را ظرف دو سال حذف کند! یکی از مدیران سابق گوگل در توییتی نوشت: «شاید فقط یک یا دو سال تا فروپاشی کامل گوگل باقی مانده باشد.
هوش مصنوعی باعث حذف صفحه نتایج موتورهای جستجو که بیشترین درآمدزایی را دارد خواهد شد». گوگل با از دست دادن مزیت پیشگامی، با راهاندازی ربات چت هوش مصنوعی خود به نام بارد سریعاً به یکی از دنبالکنندگان ترند تبدیل شد.
به لطف بهم پیوستگی شبکههای قرن بیست و یکم، دولتی که اولین مجموعه قوانین را وضع میکند میتواند در این حوزه رهبری و هدایت کشورهای دیگر را در دست بگیرد. نمونه کلاسیکی از این موضوع، مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) است که به استانداردی برای سیاست حفظ حریم خصوصی در سراسر جهان تبدیل شده است.
بار دیگر به نظر میرسد اتحادیه اروپایی که با قانون بازارهای دیجیتال و خدمات دیجیتال خود در ایجاد سیاست پلتفرم دیجیتال پیشتاز بوده است، در ایجاد سیاست هوش مصنوعی هم پیشتاز باشد. در ۱۴ ژوئن ۲۰۲۳، پارلمان اروپا با اکثریت قاطع قانون هوش مصنوعی را تصویب کرد. به زودی دستگاه نظارتی کمیسیون اروپا شروع به توسعه سیاستهای قابل اجرا خواهد کرد.
این که آیا ایالات متحده در زمینه نظارت بر هوش مصنوعی همانند گوگل میتواند سریعاً اقدام کند یا خیر، مشخص نیست. در هر صورت زمان در حال سپری شدن است. موفقیت نفر بعد به مدت زمان سپری شده بستگی دارد.
تنظیمکننده کیست؟
سم آلتمن در جلسه ۱۶ مه ۲۰۲۳ اعلام کرد که طرفدار ایجاد یک آژانس فدرال مخصوص نظارت بر هوش مصنوعی است. برد اسمیت (Brad Smith) و مارک زاکربرگ (Mark Zuckerberg) قبلاً اظهار داشتند که نیاز به تنظیمکننده دیجیتال فدرال وجود دارد.
دو روز بعد از جلسه استماع، سناتور مایکل بنت (Michael Bennet) و پیتر ولش (Peter Welch) لایحهای را برای ایجاد کمیسیون پلتفرم دیجیتال (DPC) ارائه دادند. این لایحه نه تنها موضوع ایجاد یک آژانس جدید با اختیارات نظارت بر چالشهای تحمیل شده توسط فناوری دیجیتال و هوش مصنوعی را در بر میگیرد، بلکه شامل یک رویکرد مبتنی بر ریسک با سرعت عمل بالا برای توسعه این مقررات هم میشود. بر اساس گزارشها، سناتور لینزی گراهام (Lindsey Graham) و سناتور الیزابت وارن (Elizabeth Warren) هم روی یک پیشنهاد برای آژانس دیجیتال همکاری میکنند. چالشی که کنگره ایالات متحده با آن روبروست این است که به اندازه مبتکران انقلاب دیجیتال، در تفکر و اقدامات خود درباره یک آژانس جدید و عملیات آن خلاقانه عمل کنند.
نحوه تنظیم: صدور مجوز
سم آلتمن در شهادت خود در جلسه سنا پیشنهاد کرد که آژانس جدید مسئول صدور مجوز و لغو آن جهت تضمین مطابقت با استانداردهای ایمنی باشد. برد اسمیت هم پیشنهادی مشابه ارائه کرد. دولت فدرال مدتهاست که مسئولیت صدور مجوز برای فعالیتهای خاص را داشته است. کمیسیون ارتباطات فدرال (FCC) مسئولیت مجوزدهی به طیف امواج رادیویی و تلویزیونی، ارتباطات ماهوارهای و دستگاههای تلفن همراه را دارد. کمیسیون تنظیم مقررات هستهای (NRC)، به مواد هستهای و تأسیسات راکتوری مجوز میدهد. انواع مجوز از جمله حفاری، ماهیگیری تجاری و فعالیتهای هواپیمایی وجود دارند. همراه با این مجوزها، دستورالعملهایی برای نحوه فعالیت ایجاد شدهاند.
با این حال، مجوزها هم به عنوان ابزارهای نظارتی اشکالاتی دارند. در میان آنها، مجوزها باعث تقویت موقعیت استراتژیک دریافتکننده میشوند؛ بنابراین جای تعجب نیست که شرکتهای غالب بر هوش مصنوعی حامی چنین رویکردی باشند. گرفتن مجوز فدرال شبیه به ایجاد یک خندق در اطراف قلعه و بالا کشیدن پل متحرک است. اجبار کردن یک رقیب بالقوه به دریافت مجوز، رقابت انجمن را از بازار تجاری بر سر تبدیل شدن به مرجع صدور مجوز بازتعریف میکند. به این ترتیب، مجوز با ایجاد مانعی برای ورود به عرصه و افزایش هزینهها برای هر کسی که خواستار آن موقعیت است، میزان تسلط و چیرگی را تقویت میکند.
با این که ایجاد آژانس فدرال جدید مهم است، نحوه عملکرد آن هم از اهمیت بالایی برخوردار است. شاید نیاز به نوعی مجوز وجود داشته باشد، اما مشکلات رقابتی نشان میدهد که راهحل تک مرحلهای جوابگو نیست.
نحوه تنظیم: سرعت عمل مبتنی بر ریسک
عصر دیجیتال نه تنها به یک آژانس متمرکز نیاز دارد، بلکه این آژانس باید قابلیت اجتناب از عملیات با سبک صنعتی را داشته باشد تا بتواند اشکال جدید نظارت از جمله به کارگیری هوش مصنوعی را داشته باشد. چنین نظارتی باید به جای مدیریت خرد فناوری، بر کاهش اثرات آن متمرکز باشد. این به معنای تکامل اخلاق نظارتی از مدیریت خرد به مقررات مبتنی بر ریسک با سرعت عمل بالاست.
این رویکردی است که اتحادیه اروپا در توسعه نظارت بر هوش مصنوعی اتخاذ کرده است. اولین مؤلفه چنین نظارتی با درک این موضوع آغاز میشود که، چون تأثیرات فناوری دیجیتال یکنواخت نیست، یک راهحل نظارتی برای همه نوع شرایط پاسخگو نیست. برای انجام این کار، اتحادیه اروپا یک تجزیه و تحلیل چند لایه و مبتنی بر اثرات برای هوش مصنوعی دارد که تشخیص میدهد موارد استفاده متعدد و متنوع برای هوش مصنوعی با تفاوتهایی در کاربرد، پذیرش و ریسک ذاتی همراه است.
بر اساس ارزیابی سطح ریسک، انتظارات رفتاری متفاوتی اعمال خواهد شد. به عنوان مثال، نظارتی که ممکن است برای فیلتر اسپمها به کمک هوش مصنوعی لازم باشد، با هوش مصنوعیای که امنیت شخصی افراد را تهدید میکند کاملاً متفاوت خواهد بود.
نحوه تنظیم: نقشه
با انتخاب تحلیل ریسک به عنوان مبنای نظارتی این سؤال ایجاد میشود که چگونه نظارتی را طراحی کنیم که اثر خطر شناسایی شده را بدون ضربه زدن به نوآوری و سرمایهگذاری کاهش دهد. برای تحقق این امر، کنگره که به تکنیکهای مدیریت صنعتی برای آژانسهای نظارتی در عصر صنعتی توجه داشته است اکنون باید به دنبال تقلید از شیوههای شرکتهای دیجیتالی باشد.
در قلب سیستمهای مدیریت دیجیتال استانداردهایی برای فناوری وجود دارد. این استانداردها توسط شرکتهای تحت تأثیر برای پیشبینی و کاهش مشکلات عملیاتی ناخواسته مانند عدم توانایی همکاری اجزاء با یکدیگر طراحی شدهاند. این فرآیند همچنین مکانیزمی است که تضمین میکند استاندارد با تغییر تکنولوژی تکامل مییابد. چنین استانداردهایی در همه جا وجود دارد، اما یک مثال بارز استاندارد تلفن همراه است. تکامل از فناوری نسل اول (G۱)، به ۲G، ۳G، ۴G، و اکنون ۵G (با استانداردسازی ۶G در حال انجام) نشان میدهد که چگونه استانداردها با فناوری جدید و فرصتهای جدید بازار همگام میشوند.
مشکل این است که این استانداردها در مورد مسائل فنی که شرکتها با آن مواجه هستند اعمال میشود. آن چه که مورد توجه قرار نمیگیرد، مسائل رفتاری ناشی از کاربرد فناوری است. نظارت سریع، فرآیندی استاندارد مانند برای توسعه استانداردهای رفتاری که به عنوان کدهای رفتاری بیان میشود را اتخاذ خواهد کرد که قابل اجرا توسط آژانس جدید خواهد بود. چنین رویکرد شفاف، پاسخگو و سریع را در قالب مراحل زیر در نظر بگیرید:
چنین واگذاری توسعه کد قابل اجرا با تأیید آژانس بعدی، مدل جدیدی در دولت نیست. سازمان تنظیم مقررات صنعت مالی (FINRA) جنبههای بازارهای مالی را از طریق کد توسعه یافته صنعتی که توسط کمیسیون بورس و اوراق بهادار (SEC) نظارت میشود، تنظیم میکند. شرکت معتبر انرژی آمریکای شمالی (NERC) توسط کنگره پس از قطعی متعدد برق تحت رهبری گروهی صنعتی برای توسعه سیاستهایی جهت جلوگیری از خاموشی ایجاد شد که توسط کمیسیون تنظیم مقررات انرژی فدرال (FERC) نظارت میشود.
هماهنگی و همکاری
همه مقررات مدرن در تلاش برای حفظ تعادل بین حفاظت از منافع عمومی و ترویج نوآوری و سرمایهگذاری ایجاد میشوند. در عرصه هوش مصنوعی، حفظ تعادل به معنای پذیرش این موضوع است که انواع کاربردهای هوش مصنوعی خطرات متفاوتی به همراه دارند و نیاز به طراحی نقشهای است که بتواند مقررات را با خطرات جفت سازد و در عین حال از مدیریت خرد نظارتی اجتناب کند.
گزارشهای مطبوعاتی حاکی از بروز اختلافات در دولت بایدن بر سر مقررات هوش مصنوعی است. یک گروه از اقداماتی همانند اتحادیه اروپا حمایت میکند و گروه دیگر نگران است که این اقدامات جلوی نوآوری را بگیرد. با این حال، گزینههایی بیشتر از این دو هم وجود دارد.
یک طرح نظارت بر هوش مصنوعی آمریکایی میتواند در عین حال که نوآوری را حفظ میکند، از منافع عمومی هم محافظت نماید. راه حل آن کنار گذاشتن مقررات مبتنی بر مفروضات مدیریت صنعتی و پذیرش تکنیکهای مدیریت دیجیتالی سریع است. شرکتهای دیجیتالی مدتها پیش این تغییر رویه را انجام دادند. زمان آن فرا رسیده که دولت آمریکا هم چنین تغییری را دنبال کند.
این توصیه لینکلن (Lincoln) در بیش از صد و شصت سال پیش که در برخورد با موضوع جدید باید روش تفکر جدید و اقدام جدید در پیش گرفت، در عصر امروزی درباره هوش مصنوعی صدق میکند.