رئیس مایکروسافت گفت که رویکرد فلسفی هر کشور بر مقرراتگذاری هوش مصنوعی موثر است.
به گزارش گرداب، هوش مصنوعی و چالشهای سیاستی آن یکی از محورهای بحث و گفتگو در نشست سالانه مجمع جهانی اقتصاد (WEF) در داووس سوئیس بود. خبرگزاری نیککی ژاپن در گزارشی به بررسی برخی از گفتگوها در این رابطه پرداخت.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
نشست سالانه مجمع جهانی اقتصاد امسال نیز میزبان صدها بحث و سخنرانی در مورد موضوعات گستردهای از دیپلماسی گرفته تا محیط زیست و فناوریهای نوین بود. در این نشست صحبتها درباره هوش مصنوعی و شیوه تنظیمگری و مقرراتگذاری آن بیش از هر زمان دیگری شنیده شد.
ساتیا نادلا مدیرعامل مایکروسافت در داووس گفت: «ما باید پیامدهای ناخواسته هر فناوری جدید را در کنار تمام منافع آن بپذیریم و به طور همزمان در مورد آنها فکر کنیم نه اینکه منتظر بمانیم تا پیامدهای ناخواسته ظاهر شوند و سپس به آنها رسیدگی کنیم». وی همچنین گفت که در مورد مدیریت ریسک باید رویکرد فعالانه داشت.
مایکروسافت با شرکت اوپنایآی (OpenAI) که توسعه دهنده هوش مصنوعی محبوب چتجیپیتی (ChatGPT) است همکاری میکند.
نادلا ادامه داد که نمیخواهد کنترل بیشتری بر OpenAI داشته باشد. همزمان مقرراتگذاران در اروپا و بریتانیا در حال بررسی روابط عمیق بین این دو شرکت هستند.
او در مصاحبهای با اشاره به مقررات در حال تدوین برای هوش مصنوعی مانند قانون هوش مصنوعی اتحادیه اروپا، آییننامه رفتاری که در اجلاس سران گروه هفت در هیروشیما در سال گذشته ایجاد شد و هیأت مشورتی هوش مصنوعی سازمان ملل که در اکتبر تأسیس شد گفت: آنچه ما میخواهیم فقط ثبات پایدار است.
آنتونیو گوترش، دبیرکل سازمان ملل متحد، طی سخنرانیاش در داووس، خطراتی را که هوش مصنوعی برای حقوق بشر، حریم خصوصی شخصی و جوامع ایجاد میکند، برجسته کرد و از بخش خصوصی خواست تا به تلاش چندجانبه برای توسعه یک مدل حکومتی «شبکهای و سازگار» با هوش مصنوعی بپیوندد.
او گفت: «ما نیاز فوری داریم به اینکه دولتها با شرکتهای فناوری در قالب چارچوبهای مدیریت ریسک برای توسعه هوش مصنوعی در شرایط فعلی و همچنین کاهش آسیبها در آینده کار کنند». وی افزود که جهان باید دسترسی کشورهای در حال توسعه به هوش مصنوعی را افزایش دهد تا اقتصاد آنها بتوانند از ظرفیت عظیم آن بهره ببرند.
او همچنین ادامه داد: ما باید به جای تعمیق شکاف دیجیتالی، آن را از بین ببریم.
صندوق بینالمللی پول اعلام کرده است که تقریباً ۴۰ درصد از افراد شاغل در جهان از سوی هوش مصنوعی در معرض خطر شغلی هستند که این میزان در اقتصادهای پیشرفته به ۶۰ درصد میرسد. بسیاری از دولتها متوجه این هستند که نیاز به مقررات در این زمینه وجود دارد.
در دسامبر اتحادیه اروپا برای اولین بار به طور اولیه قانون هوش مصنوعی را تصویب کرد. کشورهای سراسر جهان در حال بررسی مقررات و حکمرانی پیرامون هوش مصنوعی هستند. بسیاری از جلسات در داووس به بررسی حکمرانی و مقرراتگذاری و اینکه چرا رهبران جهانی و شرکتهای فناوری باید با یکدیگر همکاری کنند، پرداختند.
ورا جورووا (Vera Jourova)، معاون ارزشها و شفافیت کمیسیون اروپا، در جریان میزگردی در داووس گفت که «قانونگذاری بسیار کندتر از دنیای فناوری است».
او ادامه داد: «ما ناگهان با هوش مصنوعی مولد در مدلهای پایه Chat GPT مواجه شدیم. این ما را به این سمت برد تا همراه با قانونگذاران محلی، فصل جدید قانون هوش مصنوعی را پیشنویس کنیم».
رویکردهای متنوعی برای تنظیمگری هوش مصنوعی وجود دارد، اما برد اسمیت (Brad Smith) رئیس مایکروسافت، گفته است که انتظار همگرایی بیشتری را در آینده دارد: «ما جهانی بدون واگرایی (تفرقه) نخواهیم داشت، اما افراد در واقع بیشتر به چیزهایی مشابه اهمیت میدهند و رویکردهای مشابهی برای پرداختن به آنها دارند».
او همچنین خاطرنشان کرد: «فقط شایان ذکر است که طیف گستردهای از قوانین در سراسر جهان وجود دارد که لزوماً برای هوش مصنوعی نوشته نشدهاند، اما به طور کامل قابلیت اعمال در زمینه هوش مصنوعی را دارند؛ مانند قوانین حریم خصوصی، قوانین امنیت سایبری، امنیت دیجیتال، حفاظت از کودکان، حمایت از مصرف کننده و قوانین حوزه رقابت».
اسمیت ادامه داد: «افراد ممکن است بگویند که با GDPR (مقررات عمومی حفاظت از دادههای اروپا)، این اروپا است که قوانین را برای جهان تعیین میکند. اما این بار، ایالات متحده هنوز قانون حفظ حریم خصوصی را تصویب نکرده است و چندین کشور نیز با یکدیگر ارتباط دارند و از هم یاد میگیرند. این به نفع دنیاست».
در این گفتگو، ژوزفین تئو (Josephine Teo)، وزیر ارتباطات و اطلاعات سنگاپور، گفت که «باید قوانین بینالمللی وجود داشته باشد».
رویکرد چین به هوش مصنوعی نیز در این بحث مطرح شد که نوع نگرش این کشور به حریم خصوصی را پررنگ کرد.
جورووا گفت که شباهتهایی بین دستورالعملهای چین و دستورالعملهای غرب وجود دارد، اگرچه یک «امّای بزرگ» وجود دارد:، اما در چین میخواهند از هوش مصنوعی برای کنترل جامعه استفاده کنند.
در عمل، در مذاکرات وحشتناک طولانی و دشوار، مسئله اصلی این بود که تا کجا اجازه دهیم کشورها در استفاده از هوش مصنوعی، به ویژه در حوزه انتظامی پیش بروند، زیرا ما میخواهیم این فلسفه حفاظت از افراد را ادامه دهیم و آن را با اقدامات امنیت ملی متعادل کنیم؛ بنابراین در اینجا ما نمیتوانیم زبان مشترکی با چین داشته باشیم».
اسمیت بحث را پایان داد و خاطرنشان کرد: «برخی زمینهها وجود دارند که ارزشهای مشترک جهانی دارند، حتی در دنیایی که بسیار دچار اختلافات شده است. هیچ دولتی نمیخواهد که ماشینها جنگ بعدی را آغاز کنند و همه کشورها میخواهند که همچنان کنترل این فناوری در دست بشر باشد».
او افزود: «وقتی به قانون هوش مصنوعی اروپا و به اقدامات چینیها نگاه میکنید، در یک طرف صدای ارسطو و در سوی دیگر صدای کنفوسیوس را میشنوید، درواقع سنتهای فلسفی پرقدمتی را میبینید که خود را در نحوه مدیریت جوامع توسط دولتها نشان میدهد».