شی جین پینگ و جو بایدن به تازگی درباره خطرات هوش مصنوعی در عملیات نظامی و هستهای با یکدیگر گفتگو کردند. آمریکا و چین از جمله کشورهای پیشگام در زمینه حکمرانی هوش مصنوعی هستند و بهطور مثال ایالات متحده به تازگی فرمانی اجرایی در زمینه هوش مصنوعی ایمن صادر کرد.
به گزارش گرداب، رئیس جمهور چین، شی جین پینگ (Xi Jinping) و رئیس جمهور ایالات متحده، جو بایدن (Joe Biden) در جلسهای چندی پیش در سانفرانسیسکو برگزار شد، بر سر این موضوع که هوش مصنوعی (AI) در صورت استفاده شدن در عملیات نظامی یا هستهای خطراتی جدی ایجاد خواهد کرد، به توافق رسیدند. با این که دو رهبر نتوانستند بیانیهای مشترک و هماهنگ در مورد استفاده از هوش مصنوعی ارائه دهند، اما توافق آنها در مورد خطراتی که هوش مصنوعی میتواند بر امنیت ملی داشته باشد قابل توجه است و چند هفته قبل از این دیدار، رئیس جمهور بایدن فرمان اجرایی در مورد هوش مصنوعی «ایمن، مطمئن و قابل اعتماد» صادر کرده بود. محور اصلی فرمان صادر شده، متمرکز بر الزاماتی است که نحوه طراحی، کسب، استفاده و مدیریت سیستمهای هوش مصنوعی توسط آژانسهای فدرال را شکل میدهد.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
چین از این لحاظ که ارتباط نزدیکی بین دولت و بخشهای تجاری آن در توسعه و پیادهسازی هوش مصنوعی وجود دارد، دست بالا را دارد. گلن گرستل (Glenn Gerstell)، عضو اصلی گروه ابتکارات سایبری و مشاور عمومی سابق آژانس امنیت ملی میگوید که معتقد است شرکتهای تجاری در ایالات متحده میدانند که «ما نمیتوانیم به تنهایی با هوش مصنوعی مقابله کنیم. نیازمند کمک دولت هستیم و چالش این خواهد بود که مقررات مناسب و کارآمدی را برای جلوگیری از آسیب پیدا کنیم و در عین حال جلوی نوآوری را نگیریم». گرستل در ادامه میگوید که این احساس در دولت متقابل است. «من فکر میکنم ترکیب فناوری و تحولات ژئوپلیتیکی منجر به همگرایی منافع، نه به طور کامل، بلکه همگرایی برخی منافع بین دولت و بخش خصوصی شده است، به گونهای که یک دهه پیش وجود نداشت».
خبرگزاری The Cipher Brief با تعدادی از کارشناسان که بسیاری از آنها از گروه ابتکارات سایبری بودند، تماس گرفت تا از نظر اشخاص حرفهای سایبری درباره دستور اجرایی جدید و معنای آن برای استفاده از هوش مصنوعی و پیشرفتهای آینده جویا شود. اما پیش از هر چیز پیشزمینهای ارائه میدهیم.
پیشزمینه فرمان اجرایی هوش مصنوعی ایمن در آمریکا
• به طور کلی، فرمان اجرایی اخیر در آمریکا بر اساس توافقهای داوطلبانه قبلی با شرکتهای بزرگ فناوری است که متعهد شدهاند الگوریتمهای خود را برای آزمایشهای امنیتی و اشتراکگذاری اطلاعات در سراسر صنعت قبل از راهاندازی، در دسترس قرار دهند.
• حفاظت اجتماعی در برابر افراط هوش مصنوعی نیز درفرمان اجرایی تأکید شده است، از جمله وظیفه بنیاد ملی علوم در پیشبرد فناوریهای هوش مصنوعی که به جای اقدامات ارتجاعی حریم خصوصی که به دنبال یک فاجعه انجام میشود، «حریم خصوصی با طرح و نقشه» را نشان میدهد.
• یکی دیگر از اقدامات کلیدی دولت استفاده از قانون تولید دفاعی برای اجباری کردن ارائه گزارش ایمنی درباره بازبینی و به چالش کشیدن اقدامات توسط توسعهدهندگان هوش مصنوعی تجاری در دوره تمرین «هر مدل بنیادی است که خطری جدی برای امنیت ملی، امنیت اقتصادی ملی یا عموم سلامت و امنیت مردم ایجاد میکند».
• آنچه در فرمان اجرایی لحاظ نشده بود، راهنمایی دقیق برای جوامع دفاعی و اطلاعاتی بود، اما این به آن معنا نیست که به کل کنار گذاشته شده باشند. فرمان اجرایی لحاظ میکند که یک یادداشت امنیت ملی پیرو دستورالعمل اکتبر ارائه خواهد شد تا «اطمینان حاصل شود که جوامع نظامی و اطلاعاتی ایالات متحده از هوش مصنوعی به طور ایمن، اخلاقی و مؤثر در ماموریتهای خود استفاده مینمایند و جهت مقابله با استفاده نظامی دشمنان از هوش مصنوعی اقدام میکنند».
• نگرانیها در رابطه با حفظ حریم خصوصی نیز در تأمین مالی یک شبکه هماهنگی تحقیقاتی برای تقویت ابزارهای رمزنگاری و تقویت راهنمایی به آژانسهای فدرال در مورد استفاده از اطلاعات خصوصی به دست آمده از کارگزاران داده تأثیر میگذارد.
• کاهش الزامات ویزا برای کارگران مهاجر بسیار ماهر، یک شرط کلیدی در فرمان اجرایی است که هدف آن ارتقای رقابتپذیری ایالات متحده و پیشرفتهای تکنولوژیکی در توسعه هوش مصنوعی است.
• افزایش اعتماد عمومی به ارتباطات دولتی از طریق توسعه فدرال روشهای احراز هویت محتوا و واترمارک برای مقابله با دیپ فیک و سایر موارد فریبنده توسط وزارت بازرگانی انجام میشود.
• علیرغم استقبال عموماً مثبت از فرمان اجرایی، منتقدان نیز ایراداتی پیدا کردند، از جمله ضعفی که به طور گسترده به آن اشاره شده این بود که دستورات اجرایی با ماهیتی که دارند نمیتوانند تا حد قابل توجهی پیش بروند. توافق گستردهای بر سر این موضوع وجود داشت که اقدامات قانونی کنگره حیاتی است تا اقدامات ایمنی فرمان اجرایی بتواند فراتر از آژانسهای فدرال به بخش خصوصی گسترش یابد و در برابر چالشهای قانونی که مطمئناً بعداً پیش خواهند آمد مقاومت کند.
• انتقادات دیگر به عدم توجه فرمان اجرایی به سختافزار محاسباتی، به ویژه واحدهای پردازش گرافیکی با کارایی بالا (GPU) اشاره دارد، از جمله عدم وجود مکانیسمهای اجرایی در دستورالعملهای فرمان اجرایی در مورد برچسبگذاری محتوای تولید شده توسط هوش مصنوعی و ابهامات باقی مانده در مفاد فرمان اجرایی برای بازبینی، به ویژه درباره این که اگر نتایج بازبینی چنین باشد که یک مدل هوش مصنوعی خطرناک است، چه کاری دولت میتواند انجام دهد.
دیدگاه متخصصان
خبرگزاری The Cipher Brief از تعدادی کارشناس برجسته سایبری در مورد اولین برداشت آنها از دستور اجرایی هوش مصنوعی و تأثیر آن در صورت پیشبرد اقدامات سؤال کرد. نظرات آنها به صورت خلاصه و شفاف با کمی ویرایش آورده شده است.
گلن گرستل (Glenn Gerstell)، مشاور عمومی سابق NSA و مدیر گروه ابتکارات سایبری
گرستل مشاور ارشد مرکز مطالعات استراتژیک و بینالمللی است. او از سال ۲۰۱۵ تا ۲۰۲۰ به عنوان مشاور عمومی آژانس امنیت ملی و سرویس امنیت مرکزی خدمت کرده است. او مفصل در مورد تلاقی فناوری و امنیت ملی و حریم خصوصی نوشته و صحبت کرده است.
او میگوید: «این دستور از کاخ سفید نتیجه ماهها بحث بین سازمانی است. این دستور بسیار گستردهتر از اکثر دستورات اجرایی معمولی است که هدفشان جزئیتر است و یک مشکل خاص را مدنظر دارند. اما هدف این EO یک فناوری کامل، یعنی هوش مصنوعی است که به نوبه خود تقریباً هر جنبهای از اقدامات فدرال را شامل میشود، از قراردادها گرفته تا اطلاعات و از وزارت خزانهداری گرفته تا وزارت کشاورزی.
من این چنین به موضوع اشاره میکنم، چون کلی در نظر گرفتن یعنی بهطور قابلتوجهی همه چیزی را که مردم در اختیار دارند شامل میشود. از آنجایی که به همه چیز و همه کس مربوط میشود، اگر چیزی را جا بگذارید، صدای حداقل یک نفر بلند خواهد شد. بنابراین، فرمان اجرایی ناگزیر شامل مواردی برای طرفداران حریم خصوصی، افراد فعال در زمینه امنیت سایبری، اصلاحات مهاجرت، انتقال نیروی کار و ... است.
نکته خطرناک در رابطه با این گستردگی این است که جزئیات نادیده گرفته خواهند شد و دولت ایالات متحده نمیتواند همه چیز را اولویتبندی کند. کاخ سفید نمیتواند بر هر جنبهای از نحوه استفاده از هوش مصنوعی سریع واکنش نشان بدهد.
اگر میخواهد روی صنایع اطلاعاتی و دفاعی تمرکز کند مشکلی نیست، اما در مورد بخش مالی یا کشاورزی چطور؟ این فقط بر قوه مجریه فشار میآورد و نتیجه این میشود که قوه مجریه به هر بخش بگوید: «این دستورالعمل کلی خدمت شما. خودتان بروید از جزئیاتش سر در بیاورید». از بین اهداف یا گیرندگان یا مخاطبان مختلف این فرمان اجرایی، جامعه اطلاعاتی مسلماً در استفاده از هوش مصنوعی پیشرفتهترین است و در حال حاضر متوجه بسیاری از نگرانیهای مربوط به استفاده از هوش مصنوعی میباشد. بنابراین، دستورالعملهای IC در حال حاضر در این مورد وجود دارد.
زمانی که من در NSA بودم قوانین داخلی داشتیم و بقیه ICها هم همینطور، اما در درجات مختلف. جامعه اطلاعاتی بیش از یک دهه است که از هوش مصنوعی به روشی بسیار پیچیده استفاده میکند، اما مسلماً هوش مصنوعی مولد مانند چت جیپیتی (ChatGPT) را شامل نمیشود. به نظر من این دستور اجرایی فقط تقویتکننده برخی از فعالیتهایی است که جامعه اطلاعاتی همیشه انجام میداده است. اما برای سایر بخشها، این یک تغییر بزرگ خواهد بود، چون با جامعه اطلاعاتی قابل مقایسه نیستند».
سوزان اسپالدینگ (Suzanne Spaulding)، معاون سابق وزیر امور سایبری و زیرساخت و وزارت امنیت داخلی و کارشناس گروه ابتکارات سایبری
اسپالدینگ مشاور ارشد امنیت داخلی و مدیر پروژه دفاع از نهادهای دموکراتیک در مرکز مطالعات استراتژیک و بینالمللی (CSIS) است. او همچنین به عنوان یکی از اعضای کمیسیون سولاریوم فضای مجازی فعالیت میکند. پیش از این، اسپالدینگ اداره حفاظت و برنامههای ملی را که اکنون آژانس امنیت سایبری و امنیت زیرساخت (CISA) نامیده میشود، رهبری میکرد.
او میگوید: «جالب است که فرمان اجرایی تا حد زیادی بخش نظامی و اطلاعاتی را از سایر بخشها جدا کرده است و میگوید که به طور مستقل به آن رسیدگی خواهد شد. با این حال، بدیهی است که در متن فرمان اجرایی درباره بخشهایی از امنیت ملی خارج از حوزه نظامی فنی و اطلاعاتی چیزهای زیادی وجود دارد. لازم بود که چنین ساختارهای حکومتی در سراسر دولت راهاندازی کنیم. خوشبختانه توانستیم زودتر در رابطه با هوش مصنوعی، خلاف حوزه سایبری، دست به کار شویم. همه میدانیم که هوش مصنوعی را نمیتوان محدود ساخت، چرا که به همه زمینهها نفوذ دارد و باید در همه فعالیتهای دولت نقش داشته باشد. به همین دلیل به مکانیسمهای هماهنگی قوی نیاز داریم و باید ساختارهای حاکمیتی وجود داشته باشند که سرعت عمل را تقویت کنند و بتوانند به همه بخشها و سازمانهای فدرال اجازه دهند از پیشرفتها، بینشها و بهترین شیوههای توسعهیافته توسط هر یک از آنها بهرهمند شوند.
بحث در مورد نقش CISA گواه دیگری بر آنچه است که من مدتها بر آن تأکید داشتهام و این بود که برخورداری از نوعی رویکرد برای «همه نوع خطرات» نسبت به امنیت و انعطافپذیری زیرساختهای حیاتی و نه فقط سایبری، به نفع CISA است. بسیاری از مردم فکر میکنند که CISA فقط یک آژانس سایبری است، اما در واقع یک نهاد فیزیکی حفظکننده امنیت و اطمینان از انعطافپذیری ساختار حیاتی ما میباشد. فکر میکنم تأثیر و اهمیت آن را در دستورالعملهای CISA و آژانسهای مدیریت ریسک بخش مربوطه و سایر ادارات و آژانسهای فدرال میبینید؛ همکاری با CISA، بررسی پیامدهای امنیت فیزیکی، امنیت سایبری، انواع دیگر اختلالات و مشکلات احتمالی در زیرساختهای حیاتی.
همچنین با توجه به هوش مصنوعی، ما باید به شفافیت رادیکال فکر کنیم. در روزهای اولیه توسعه هوش مصنوعی، زمانی که مردم پیشنهاد میکردند تنها راه کار با هوش مصنوعی از طریق این جعبه سیاه مرموز است و غیرممکن است که به عقب برگردیم و بفهمیم که چگونه به چنین پاسخهایی دست یافته است، ممکن است مشکل ساز باشد. من فکر میکنم که نشان دادن واکنش منفی در این مورد واقعاً به جا است. بنابراین، الزامات گزارشدهی سراسری در مورد توسعه هوش مصنوعی و الزامات برای بازبینی و گزارش در مورد نحوه راهاندازی این سیستمها و نحوه استفاده از آنها و انواع نتایجی که آنها تولید میکنند، همه این موارد واقعاً برای شفافسازی بسیار مهم خواهند بود».
مارک مونتگومری (Mark Montgomery)، مدیر اجرایی سابق کمیسیون سولاریوم فضای سایبری و مدیر گروه ابتکارات سایبری
دریابان (بازنشسته) مارک مونتگومری مدیر ارشد مرکز نوآوری سایبری و فناوری (CCTI) در بنیاد دفاع از دموکراسیها است. او هدایتکننده CSC ۲.۰ است که برای اجرای توصیههای کمیسیون سولاریوم فضای سایبری، جایی که قبلاً به عنوان مدیر اجرایی در آن خدمت میکرد، عمل میکند.
او میگوید: «فرمان اجرایی به تعدادی از مسائل حیاتی اشاره میکند و من فکر میکنم که در تشریح چالشهای هوش مصنوعی که هم در داخل دولت و هم در ایجاد یک مشارکت عمومی و خصوصی وجود دارند، موفق بوده و وظایف خوبی به دولت محول کرده است. من نگران دو نکته هستم، یکی این که یک یادداشت امنیت ملی قرار است در این مورد توسط شورای امنیت ملی تنظیم شود که ناتمام است. دوم، بسیاری از وظایف هستند که بودجهای برایشان تعیین نشده است و این در یک فرمان اجرایی غیر معمول نیست، اما مشکلاتی را برای اجرای به موقع ایجاد میکند.
این یک چارچوب سطح بالا برای رویکرد دولت ایالات متحده نسبت به هوش مصنوعی است. تمرکز کافی بر امنیت و تهدیدات احتمالی دارد و قطعاً این ایده را تقویت میکند که ما باید به نوآوری ادامه دهیم و اذعان میکند که دولت باید سریعاً استانداردهای هوش مصنوعی را تطبیق دهد. این فرمان در مورد تأثیر هوش مصنوعی بر بخشهای اقتصادی مانند مراقبتهای بهداشتی، حمل و نقل و ارتباطات از راه دور توضیح میدهد. نکته چالش برانگیز به نظرم زمانی است که EO شروع به توصیف نحوه برخورد دولت با بخش خصوصی میکند.
EO در مورد گزارشدهی و الزامات انطباق برای بخش خصوصی صحبت میکند، اما دولت ابتدا باید زیرساختهایی را برای انجام این کار فراهم سازد. با این که نمیگوید «تو باید تنظیم کنی»، میگوید که انتظار داریم آژانسهای فدرال با توصیههایی درباره نوع مقرراتی که ممکن است در هر بخش مورد نیاز باشد به ما مراجعه کنند. به طور خلاقانهای از قانون تولید دفاعی برای پیشبرد آن استفاده میکند. من فکر میکنم مزیت دیگری که دارد این است که الزامات گزارشدهی «مشتری خود را بشناسید» برای ارائهدهندگان خدمات ابری را پیش برده و گسترش میدهد.
با توجه به استانداردهای دولتی باید بگویم که فرمان اجرایی را خیلی سریع منتشر کردند و به نظرم در آن به بسیاری از مهمترین مسائل پرداخته شده است. آنچه در یادداشت امنیت ملی وجود دارد باید با نحوه جلوگیری از بدترین موارد استفاده از هوش مصنوعی مقابله کند، مواردی مانند تلاش شخصی برای استفاده از هوش مصنوعی مولد جهت توسعه سلاحهای زیستی. در نهایت، در رابطه با این ایده که «بروید و هر چه را دوست دارید تنظیم کنید» باید گفت بسیاری از این آژانسها دارای اختیارات نظارتی ضعیف هستند یا این که کلاً اختیاری ندارند.
به عنوان مثال، چه کسی در حال حاضر فضای ابری را تنظیم میکند؟ در پاسخ به این سؤال صادقانه بگویم کمی نگرانم. به طور کلی، من به فرمان اجرایی به خاطر سرعت و تلاشش نمره الف، نمره ب برای محتوا و نمره د برای اجرا میدهم. بدون منابع و بدون مقامات نظارتی مشخص فکر میکنم آنها با مشکل مواجه خواهند شد. یادداشت امنیت ملی میتواند بخشی از آن را پر کند، اما نه همه شکافهای مربوط به منابع یا اختیارات را».
مایکل فرانک (Michael Frank)، عضو ارشد مرکز Wadhwani برای هوش مصنوعی و فناوریهای پیشرفته مرکز مطالعات استراتژیک و بینالمللی
فرانک یک عضو ارشد در مرکز Wadhwani برای هوش مصنوعی و فناوریهای پیشرفته مرکز مطالعات استراتژیک و بینالمللی است که در آن بر ژئوپلیتیک و فناوریهای پیشرفته تمرکز دارد. او قبلاً تحقیقات سیاست فناوری آسیا در واحد اطلاعات اکونومیست را رهبری میکرد، جایی که او پیشگام کاربردهای یادگیری ماشینی در تحقیقات و تحلیلهای اقتصاد کلان و ژئوپلیتیک بود.
او میگوید: «فرمان اجرایی تقریباً تمام بخشهای مرتبط بین هوش مصنوعی و دولت را پوشش میدهد و این کار را با قرار دادن اصول تأییدشده از جانب عموم در هسته اصلی این عمل انجام میدهد. این اصول عبارتند از انصاف و برابری، رقابت، امنیت سایبری، استعداد و ایمنی. همه ذینفعان با نگاه به فرمان اجرایی هوش مصنوعی ایمن میتوانند بگویند که موارد مورد نیازشان مورد توجه و تأکید قرار گرفته است. در عین حال، فرمان اجرایی هوش مصنوعی ایمن زیادهروی نمیکند. الزاماتی که برای همه آژانسها در نظر گرفته شده است کاملاً منطقی هستند، مانند انتصاب یک افسر ارشد هوش مصنوعی.
فرمان اجرایی هوش مصنوعی ایمن با آنچه که ما از بسیاری از آژانسهای اجرایی شنیدهایم تطابق دارد. آنها معتقدند که نیازی به رسیدگی به هوش مصنوعی با اختیارات نظارتی جدیدی از سوی کنگره نیست. آنها بر این باورند که اکنون از اختیارات کافی برای رسیدگی به هوش مصنوعی به شیوهای سازنده برخوردارند. با این حال، یک شکاف بزرگ در این EO وجود دارد که فقط کنگره میتواند آن را پر کند و آن صدور ویزا برای محققان خارجی هوش مصنوعی است که میخواهند به ایالات متحده بیایند. دولت تا آنجایی که میتواند از طریق تبلیغ ایالات متحده به عنوان مقصد استعدادهای هوش مصنوعی سعی دارد تا فرآیند صدور ویزا و توسعه استعدادهای هوش مصنوعی در کشور را آسانتر کند، اما کنگره باید سهمیههای ویزاهای فناوری پیشرفته را افزایش دهد. تقاضا بسیار بیشتر از عرضه است و ایالات متحده در حفظ و جذب استعدادهای برجسته هوش مصنوعی نه به دلیل عدم علاقه آنها، بلکه به دلیل سهلانگاری خود ما شکست خورده است».
هودان عمر (Hodan Omaar)، تحلیلگر ارشد سیاست در مرکز نوآوری داده است
تمرکز فعلی عمر بر سیاست هوش مصنوعی است. پیش از این، او به عنوان مشاور ارشد فناوری و مدیریت ریسک در لندن و به عنوان یک اقتصاددان رمزنگاری در برلین کار میکرد.
او میگوید: «در میان دریایی از بحثها و نظرات مختلف در مورد نحوه اجرای الزامات حفاظتی مناسب برای هوش مصنوعی، فرمان اجرایی جدید مسیر روشنی را برای ایالات متحده تعیین میکند. برای نظارت بر هوش مصنوعی، راهنماییهایی را که مدتها در انتظار آن بودیم، از جمله توصیه به شرکتهای فناوری برای پایبندی به چارچوب مدیریت ریسک هوش مصنوعی NIST، محتوای تولید شده توسط هوش مصنوعی، در نظر گرفتن دادههای مورد استفاده در آموزش مدلها و گنجاندن اقدامات برای بازبینی فعالیتها، به صنعت ارائه میکند. در حالی که جهت کلی برای نظارت بر هوش مصنوعی مشخص است، جزئیات پیادهسازی نامشخص هستند و این یعنی هم شرکتها و هم تنظیمکنندهها در سردرگمی به سر میبرند.
به عنوان مثال، این فرمان اجرایی خواستار بازبینی استانداردهای جدید، غربالگری سنتز بیولوژیکی و تشخیص محتوای تولید شده توسط هوش مصنوعی است. در حالی که همه این موارد تحت بررسی و تحقیق هستند و راهحل سادهای برای آنها وجود ندارد. سیاستگذاران اغلب فراموش میکنند دلیل این که صنعت تاکنون راهحلهای خاصی را اتخاذ نکرده، به این دلیل است که آن راهحلها هنوز وجود ندارند. به همین دلیل برای ایالات متحده ضروری است که به تأمین مالی تحقیقات حیاتی هوش مصنوعی در این زمینهها ادامه دهد.
با این حال، تأکید و تمرکز فرمان اجرایی بر پذیرش هوش مصنوعی دلگرمکننده است. فرمان اجرایی هوش مصنوعی ایمن به درستی مراحل لازم برای بهرهبرداری از پتانسیل هوش مصنوعی در بخش آموزش و مراقبتهای بهداشتی را شامل میشود، اما برای پذیرش هوش مصنوعی در مقیاس گسترده به سرمایهگذاری قابل توجه و ابتکارات سیاستی دقیقتر از آنچه که فرمان اجرایی هوش مصنوعی ایمن در حال حاضر تصور میکند، نیاز است. همچنین فرمان اجرایی هوش مصنوعی به درستی بر ترویج پذیرش هوش مصنوعی در دولت تأکید دارد، اما دولت باید برای یک برنامه بلندمدت آماده شود، نه کوتاهمدت».