پرونده/ تاریخچه مختصر قانون‌گذاری هوش مصنوعی

پرونده/ تاریخچه مختصر قانون‌گذاری هوش مصنوعی
تاریخ انتشار : ۰۷ تير ۱۴۰۲

بیش از هشتاد کشور و بنیاد بین‌المللی در سراسر جهان قوانین جامعی برای محافظت از داده‌ها تصویب کرده‌اند و حال همه کشور‌ها به دنبال قانون‌گذاری هوش مصنوعی هستند.

به گزارش گرداب، نگرانی‌ها در خصوص هوش مصنوعی و آینده‌ی نامشخص آن از یک سو و ناگزیر بودن توسعه‌ی سیستم‌های هوشمند از سوی دیگر مردم را به سمتی هدایت می‌کنند که با ابزار‌های قانونی خطوط قرمزی را برای توسعه‌دهندگان هوش مصنوعی ایجاد کرده و با کنترل و مدیریت توسعه‌ی این ابزار‌های فن‌آوری به وسیله‌ی ایجاد مستندات حقوقی پاسخی برای پرسش‌های موجود یا مفروض کنونی و آینده مطرح نمایند.

بیشتر پرسش‌ها و چالش‌های پیرامون هوش مصنوعی در دامن فن‌آوری رایانه‌ای و اینترنتی شکل گرفته و بنابراین قوانین مربوط به سیستم‌های هوشمند در بسط و ادامه‌ی قوانین قدیمی‌تر فن‌آوری دیجیتال آمده‌اند. حق بشر در مدیریت داده‌هایش یکی از اساسی‌ترین مبنا‌های قوانینی است که در این حوزه تصویب می‌شوند. بیش از هشتاد کشور و بنیاد بین‌المللی در سراسر جهان قوانین جامعی برای محافظت از داده‌ها تصویب کرده‌اند.

از زمان‌های دور بحث پیرامون خطرات آینده‌ی فن‌آوری رایانه‌ای و هوش مصنوعی مطرح بوده، اما جنبه‌های مثبت فن‌آوری مانند لوازم خانگی بهتر، استفاده از بازو‌های رباتیک در صنایع خطرناک، انجام جراحی‌های دقیق و نتیجه بخش، و پیاده‌سازی تکنیک‌های هوشمند بیشمار دیگر باعث شده‌اند که همه‌ی مباحث قانون‌گذاری در راستای پیشرفت در این میدان تصویب و تهیه شوند و بحث نگرانی‌های آینده به داستان‌ها و فیلم‌های سینمایی محدود گردد.

بیشتر فضای قانون‌گذاری هوش مصنوعی تحت تاثیر قوانین و مستندات مصوب حول حفاظت از داده‌ها در آمریکا و اروپا شکل گرفته است. در این میان آمریکایی‌ها تمرکز بیشتری بر روی مباحث حقوقی بازار دیجیتال و صنعت الکترونیک داشته و اروپاییان بر حفظ حریم خصوصی و حقوق شهروندی متمرکز بوده‌اند.

در این نوشتار تلاش شده است برخی از مستندات مهم در حوزه قانون‌گذاری هوش مصنوعی مطرح شوند. بسیاری از این مستندات ویژه‌ی سیستم‌های هوشمند نبوده، ولی تصویب و انتشار آن‌ها در شکل‌گیری فضای حقوقی این کار نقش داشته و دارند. بسیاری از این قوانین سال‌ها پس از تصویب، به روز رسانی شده‌اند تا مسائل مطرح شده در آن‌ها دربردارنده‌ی چالش‌های هوش مصنوعی نیز شوند.

در سال ۱۹۴۲ آیزاک آسیموف نویسنده‌ی علمی-تخیلی در کتاب خود سه قانون رباتیک را معرفی کرد که با استقبال علاقه‌مندان مواجه شد. در آن زمان ربات‌ها تنها در داستان‌ها و ایده‌پردازی مطرح بودند و لازم نبود این قوانین جزئیات آنچه جهان ما امروز با آن درگیر است را پوشش دهند. این سه قانون به این ترتیبند:

یک: ربات نمی‌تواند به یک انسان آسیب بزند یا به دلیل بی عملی اجازه دهد که انسانی آسیب ببیند.

دو: یک ربات باید به دستور‌های دریافتی از انسان عمل کند، مگر در تناقض با قانون یکم باشد.

سه: یک ربات باید از وجود خود مراقبت کند مادامی که این مراقبت در تناقض با دو بند پیشین نباشد.

برای مدت طولانی همین قوانین ساده و ابتدایی برای خیال‌پردازی‌های مردم درباره ربات‌ها و هوش مصنوعی کفایت می‌کردند. بعد‌ها بند صفرم هم به این قانون اضافه شد:

صفر: یک ربات نمی‌تواند به بشریت آسیب زند یا با بی‌عملی اجازه دهد که بشریت آسیب ببیند.

اهمیت قانون ایزاک آسیموف درباره‌ی ربات‌ها در این است که خوانندگان و پژوهشگران را به ماهیت و جنس نگرانی او و خوانندگان آثارش رهنمون شده و با خواندن آن آثار با چالش‌هایی مواجه می‌شویم که هنوز قابل بحث هستند.

در سال ۱۹۵۶ کنفرانس دارتموث برگزار شد که از آن به عنوان تولد هوش مصنوعی یاد شده است. در این کنفرانس گروهی از پژوهشگران این حوزه گرد آمده و درباره‌ی اهداف آن و چالش‌های پیش روی این اهداف و نیز درباره‌ی نیروی بالقوه‌ی هوش مصنوعی به بحث نشستند. در همان زمان هم ایده‌ی ماشینی که بتواند با نوعی آگاهی برای چیره شدن به نوع بشر بر روی زمین اقدام کند ترسناک نموده بود.

تا سال‌های سال هیچ خبری از قانون‌گذاری ویژه‌ی هوش مصنوعی نبود، اما دولت ایالات متحده به تحقیقات این حوزه به ویژه در امور نظامی و دفاعی علاقه نشان داد. در سال ۱۹۶۶ کتاب جوزف وایزنبام [۱] به خطرات بالقوه هوش مصنوعی و قابلیت‌های مخرب آن پرداخت و موفق شد بحث مناسبات اخلاقی و قانونی در پیاده‌سازی آن را گرم کند.

سازمان ملل متحد در سال ۱۹۶۷ «سازمان جهانی مالکیت فکری» [۲] (WIPO) را ایجاد کرد که توسعه و نگهداری معاهدات وابسته به مالکیت معنوی از جمله الگو‌های هوش مصنوعی را نظارت کند. این سازمان از آن زمان مستندات و رهنمود‌ها و مقررات زیادی را در حوزه کاری خود توسعه داده است. سه سال بعد در ۱۹۷۰ ایالت هسن در آلمان، نخستین قانون حفاظت از داده‌ها را در این کشور تصویب کرد که می‌توان آن را نخستین قانون در این زمینه در جهان دانست.

پس از برگزاری نشست‌ها و جلسات متعدد در گزارشی که با عنوان «رکوردها، رایانه‌ها و حقوق شهروندی» [۳] در سال ۱۹۷۳ به وزارت بهداشت و خدمات انسانی آمریکا تحویل داده شد، اصول جهانی و سراسری زیر به منظور حفظ حریم خصوصی و محافظت از داده‌های شهروندان پیشنهاد شد:

- می‌بایست منظور مشخصی برای گردآوری هر داده‌ای بیان شود.

- اطلاعات جمع‌آوری شده از افراد نباید در اختیار نهاد یا شخص دیگری قرار گیرد مگر به شرط رضایت افراد یا حکم قانون.

- رکورد‌های داده جمع‌آوری شده از افراد می‌بایست دقیق و به روز باشد.

- باید امکان مشاهده‌ی داده‌های ذخیره شده درباره‌ی افراد برایشان فراهم بوده و به منظور دقت امکان ویرایش و به روزرسانی آن‌ها وجود داشته باشد.

- هنگامی که منظور مشخص بیان شده برای گردآوری یک داده از بین رفت و نیاز اولیه برطرف شد، داده‌های افراد می‌بایست پاک شوند.

- نباید داده‌های شخصی افراد به جا‌هایی منتقل شوند که امکان حفاظت از آن‌ها وجود ندارد.

- داده‌های شخصی‌تر افراد تنها در صورت نیاز و اجبار باید جمع‌آوری شوند.

در سال ۱۹۷۴ کنگره آمریکا «قانون‌نامه‌ی حریم خصوصی» [۴] را به تصویب رساند که شامل مقرراتی برای نظارت بر جمع‌آوری و استفاده و افشاء اطلاعات شخصی شهروندان توسط دولت فدرال، حق افراد در دسترسی به اطلاعات شخصی‌شان که در اختیار حکومت است و موارد دیگر است. این قانون‌نامه بعد‌ها برای پوشش بحث‌های هوش مصنوعی و موارد دیگر به روز رسانی شده است.

در همین سال ۱۹۷۴ «قانون‌نامه تحقیقات ملی» [۵] نیز در ایالات متحده پی نهاده شد که بنابر آن یک کمیسیون ملی ایجاد می‌شد تا مسئول توسعه‌ی رهنمود‌های مربوط به نگرانی‌های اخلاقی و قانونی در تحقیقات اشخاص حقیقی و حقوقی باشد و موضوعات پژوهشی از جمله در حوزه فن‌آوری‌های نوظهور و هوش مصنوعی را زیر نظر بگیرد.

در سال ۱۹۷۸ کنگره آمریکا «قانون‌نامه‌ی نظارت اطلاعات خارجی» [۶] را تصویب کرد که بعد‌ها چندین بار به روز رسانی شد. این قانون نگرانی‌ها و چالش‌های استفاده از هوش مصنوعی و دیگر فن‌آوری‌های پیشرفته را در فعالیت‌های نظارتی و جاسوسی پوشش می‌دهد. قانون فرانسوی «نگاهی به فن‌آوری اطلاعات، فایل‌ها و آزادی‌های مدنی» در همین سال تصویب شد که همین قانون بعد‌ها برای پوشش مباحث نوین مانند هوش مصنوعی به روز رسانی شده است.

در سال ۱۹۷۹ یونسکو اعلامیه‌ای را تبیین کرد که بر استفاده از پیشرفت‌های علمی و فن‌آوری در راه حرکت به سمت صلح و سود همگانی تاکید داشت و خواستار بهره گیری اخلاقمند از هوش مصنوعی و دیگر فن‌آوری‌های در حال ظهور بود.

در سال ۱۹۸۱ «پیمان ۱۰۸ شورای اروپا» [۷] با عنوان اصلی «پیمان محافظت از افراد در حوزه‌ی پردازش اتوماتیک داده‌های شخصی» [۸] توسط آن شورا تصویب شد. این پیمان دربردارنده‌ی پروتکل‌ها و راهبرد‌هایی بود برای گردآوری، استفاده و ذخیره‌ی داده‌های افراد به منظور پردازش ماشینی که شامل هوش مصنوعی و فن‌آوری‌های نوظهور نیز هست.

سازمان همکاری و توسعه اقتصادی (OECD) [۹] رهنمود‌هایی را در سال ۱۹۸۱ منتشر نمود که ارتباط مستقیمی با هوش مصنوعی نداشت، اما همین مستندات بعد‌ها مبنای تصویب راهبرد‌ها و مقررات هوش مصنوعی شد. یونسکو در سال ۱۹۸۵ توصیه‌نامه‌ای درباره توسعه‌ی تحقیقات علمی و نقش دانش و فن‌آوری در جهان مدرن منتشر کرد که بند‌هایی از آن مربوط به امور اخلاقی و حقوقی در توسعه‌ی هوش مصنوعی و فن‌آوری‌های نوظهور بود.

در سال ۱۹۸۶ «قانون‌نامه‌ی حریم خصوصی در ارتباطات الکترونیک» [۱۰] (ECPA) پی نهاده شد. در اصل این قانون به منظور محافظت از ارتباطات الکترونیکی، کلامی و سیمی در زمانی که انجام شده، منتقل می‌شوند و نیز در هنگامی که در رایانه‌ها ذخیره می‌شوند. کارکرد‌های این قانون در نحوه‌ی گردآوری داده و استفاده و محافظت از آن توسط سیستم‌های رایانه‌ای شامل وجوهی از هوش مصنوعی نیز می‌شود.

در همان سال ۱۹۸۶ «قانون‌نامه‌ی تخلفات و سوءاستفاده رایانه‌ای» [۱۱] آمریکا مقرر کرد که هرگونه دسترسی به کامپیوتری بدون مجوز و نیز استفاده از کامپیوتر برای انجام عمل مجرمانه پیگرد قانونی داشته و هکر‌هایی که از هوش مصنوعی برای جرم‌های سایبری استفاده می‌کنند مورد تعقیب قضایی دولت فدرال خواهند بود.

قانون‌گذاران آلمانی بر اساس تصمیمات دادگاه قانون‌اساسی این کشور در ۱۹۹۰ مجموعه قوانین جدیدی برای حفاظت از داده‌ها تصویب کردند. در سال ۱۹۹۲ قانون‌گذاران سوئیسی «فرمان فدرال حفاظت از داده سوئیس» [۱۲] را مصوب کردند. از جمله مواردی که در این فرمان تاکید شده است حفظ حریم خصوصی و حق اساسی شهروندان در پردازش قانونی اطلاعات ثبت‌شده‌ی آن‌هاست.

در سال ۱۹۹۵ شورای اروپا «امریه حفاظت از داده‌ها» [۱۳] را مصوب و صادر کرد که چارچوبی برای سازمان‌های عمومی و خصوصی به منظور گردآوری، استفاده و ذخیره‌ی اطلاعات خصوصی دیگران شد. این امریه به یکی از مهم‌ترین ارکان و مولفه‌های حفظ حریم خصوصی و حقوق بشر در اتحادیه‌ی اروپا تبدیل شد که چالش‌ها و مباحث مربوط به هوش مصنوعی را نیز در بر دارد و بعد‌ها با سند «مقررات عمومی حفاظت از داده اتحادیه اروپا» [۱۴] (GDPR) جایگزین شد.

کنگره‌ی آمریکا و پس از آن مجلس سنای این کشور در سال ۱۹۹۸ «قانون‌نامه‌ی حق نشر هزاره‌ی دیجیتال» [۱۵] (DMCA) را تصویب کردند که در واقع پیاده‌سازی دو معاهده منظور سازمان جهانی مالکیت فکری زیرمجموعه‌ی سازمان ملل متحد بود. در توسعه‌ی قوانین هوش مصنوعی هم آن معاهدات و هم این قانون‌نامه به عنوان زیربنا مد نظر قرار گرفته اند.

سال ۲۰۰۰ در آمریکا «قانون‌نامه‌ی حفاظت از حریم خصوصی کودکان در فضای آنلاین» [۱۶] (COPPA) که حدود دو سال پیش تصویب شده بود به صورت قانون لازم‌الاجرا درآمد. در این سند مقررات حمایتی از کودکان زیر ۱۳ سال و اطلاعات شخصی آن‌ها آمده بود که شامل کودکان خارجی نیز می‌شود. این قوانین از آن زمان برای رفع مشکلات و بهینه سازی آن و نیز به منظور پوشش هوش مصنوعی و دیگر فن‌آوری‌های نوظهور به روز رسانی شده است.

در سال ۲۰۰۱ سازمان همکاری و توسعه‌ی اقتصادی OECD گزارشی از مسائل اجتماعی و اخلاقی در رابطه با هوش مصنوعی را منتشر کرد که به شکل دادن رهنمودها، مقررات و قوانین آینده در این حوزه کمک کرد.

پالمان و شورای اتحادیه اروپا در سال ۲۰۰۲ سند «امریه ارتباطات الکترونیک و حریم خصوصی» [۱۷] را نشر داد که با نام «امریه حریم خصوصی الکترونیکی» [۱۸] یا ePD شهرت یافته است. این امریه با هدف حفاظت از داده‌های خصوصی در ارتباطات الکترونیکی تبیین شده و بعد‌ها به منظور پوشش چالش‌های هوش مصنوعی و دیگر فن‌آوری‌های پیشرفته به روز شد.

کنگره‌ی آمریکا در سال ۲۰۰۳ «قانون‌نامه‌ی CAN-SPAM» را به منظور ایجاد ساز و کار‌های قانونی در حوزه‌ی ایمیل تصویب کرد که بند‌هایی از آن مربوط به سیستم‌های هوشمند استفاده کننده از نامه‌ها و پیام‌های الکترونیکی است. در به روز رسانی‌های بعدی این قانون‌نامه، بند‌های مربوط به هوش مصنوعی و استفاده از ایمیل در تجارت هوشمند کامل‌تر شد.

سال ۲۰۰۴ سازمان ملل متحد «کنوانسیون جرایم سایبری» [۱۹] یا همان کنوانسیون بوداپست را که در سال ۲۰۰۱ توسط شورای اروپا تصوب شده بود به عنوان نخستین معاهده بین‌المللی در رابطه با جرائم رایانه‌ای و اینترنتی به اجرا گذاشت. این کنوانسیون می‌کوشد تا علاوه بر سازگار کردن قوانین ملی و داخلی کشورها، روش‌های تحقیقات و همکاری‌های بین آن‌ها را در حوزه جرائم سایبری بسط دهد. این سند مواردی که از هوش مصنوعی به عنوان ابزار جرم استفاده شود را پوشش داده و آن را در نظر گرفته است. امروزه حدود ۵۰ کشور این معاهده را امضا کرده‌اند.

سال ۲۰۰۸ در ایالات متحده «قانون‌نامه‌ی عدم تبعیض بر اساس اطلاعات ژنتیکی» [۲۰] (GINA) توسط کنگره این کشور تهیه گردید و همان سال با اکثریت مطلق آرا به تصویب مجلس سنا این کشور رسید. این قانون‌نامه مقررات گردآوری و استفاده از اطلاعات تباری و ژنتیکی را که بیشتر توسط شرکت‌ها و کارمندان بیمه‌های سلامتی انجام می‌شد تحت پوشش قرار داده و بعد‌ها به منظور در نظر گرفتن چالش‌های همین حوزه در رابطه با هوش مصنوعی به روز رسانی شد. از این قانون به عنوان نخستین حکم بزرگ مربوط به حقوق مدنی در قرن جدید یاد شده است.

در سال ۲۰۰۹ کمیسیون فدرال تجارت آمریکا [۲۱] (FTC) رهنمود‌های قانونی برای استفاده از هوش مصنوعی در تبلیغات و بازاریابی را تبیین کرد. این رهنمود‌ها توصیه‌هایی را برای شرکت‌ها در بر داشت تا اطمینان از اینکه معاملات و قرارداد‌های تجاری و تبلیغاتی با استفاده از سیستم‌های هوشمند منصفانه، شفاف و بدون تبعیض انجام شوند. حدود یک سال بعد (۲۰۱۰) سازمان همکاری و توسعه اقتصادی (OECD) گزارشی درباره هوش مصنوعی منتشر کرد که از آن در رهنمود‌ها و مقررات آینده در این حوزه بهره برده شد.

در سال ۲۰۱۹ سازمان ملل متحد «اصول راهبردی کار و حقوق بشر» [۲۲] را منتشر کرد که بند‌هایی از آن شامل استفاده از هوش مصنوعی در امور تجاری است. کشور فیلیپین در سال ۲۰۱۲ «قانون‌نامه‌ی حفاظت از داده» [۲۳] را تصویب کرد که البته مستقیم به مباحث هوش مصنوعی در آن پرداخته نشده، اما با پوشش دادن مقررات حفاظت از اطلاعات در همه‌ی شکل‌های آن در این حوزه نیز تاثیرگذار است. آژانس نوآوری انگلستان در سال ۲۰۱۵ سند «استراتژی اقتصاد دیجیتال» [۲۴] را تهیه کرد که شامل مباحث اخلاقی و حقوقی حوزه داده‌هاست.

در سال ۲۰۱۸ سند GDPR (مقررات عمومی حفاظت از داده اتحادیه اروپا) تصویب شد که یکی از مهم‌ترین چارچوب‌های قانون‌گذاری حوزه‌ی داده‌ها می‌باشد. این سند نیازمندی‌های نوظهور این عرصه را پوشش داده و ناظر بر حفاظت از گردآوری و استفاده از اطلاعات و داده‌های شخصی افراد توسط سازمان‌های عمومی و خصوصی است. مسائل مربوط به هوش مصنوعی در این سند در نظر گرفته شده است.

بسیاری از برنامه‌های کاربردی تلفن‌های هوشمند، رایانه‌ها، وبسایت‌ها و شرکت‌های ارائه دهنده‌ی خدمات رایانه‌ای و اینترنتی به سند GDPR مقید هستند و می‌توان این سند را به عنوان یکی از مهم‌ترین اسناد کاربردی حوزه‌ی دیجیتال و هوش مصنوعی معرفی کرد. در واقع این قانون بر هر شرکتی که در اتحادیه‌ی اروپاست نافذ بوده و نیز بسیاری از شرکت‌های خارج از اتحادیه به منظور تسهیل روابط کاری با کاربران اروپایی‌شان این قانون را پذیرفته‌اند.

در همین سال کنگره‌ی آمریکا قانون‌نامه CLOUD (شفافیت استفاده‌ی قانونی از داده‌ها خارج از کشور) [۲۵] را تصویب کرد که شامل قوانینی در رابطه با دسترسی و اشتراک داده‌های الکترونیک با کشور‌های خارجی می‌شد. این قانون‌نامه بعد‌ها برای پوشش دادن نگرانی‌ها و چالش‌های هوش مصنوعی به روز رسانی شده و به منظور همکاری‌های خارجی با دولت‌های شریک آمریکا در مواجهه با جرائم و تروریسم توسعه داده شده است.

ایالت کالیفرنیا در سال ۲۰۱۸ «قانون‌نامه حریم خصوصی مصرف‌کنندگان کالیفرنیایی» [۲۶] (CCPA) را تصویب کرد که برای استفاده کنندگان حق اطلاع داشتن از وضعیت ذخیره‌سازی و گردآوری اطلاعات شخصیشان و نیز حق ممانعت از فروش اطلاعات و داده‌های جمع‌آوری شده از ایشان را مد نظر قرار داده است.

در سال ۲۰۱۹ سازمان همکاری و توسعه اقتصادی سند «اصول هوش مصنوعی OECD» [۲۷] را منتشر کرد که شامل رهنمود‌هایی برای تضمین استفاده‌ی مسئولانه از هوش مصنوعی است. همین سازمان در سال ۲۰۲۰ سند «رصد آداب هوش مصنوعی» [۲۸] را منتشر کرد که چارچوبی برای قانون‌گذاری و اشتراک تجربیات و همکاری‌ها به منظور توسعه‌ی مسئولانه‌ی هوش مصنوعی را دنبال می‌کند. اهمیت این اسناد در این است که مختص به سیستم‌های هوشمند توسعه یافته‌اند و شامل مباحث مهم و نوظهوری در این عرصه می‌باشند.

قوانین عمومی مربوط به محافظت از داده‌های شخصی در کشور برزیل در سال ۲۰۲۰ تصویب شدند که این قوانین ترکیبی از ۴۰ قانون پیشین این کشور در حوزه‌ی امنیت اطلاعات است. ایالت ایلینوی آمریکا «قانون‌نامه مصاحبه ویدئویی هوش مصنوعی» [۲۹] را به عنوان مقررات داخل ایالتی تصویب کرد که قواعد استفاده از سیستم‌های هوشمند در مصاحبه‌های کاری را در بر دارد.

در سال ۲۰۲۱ «قانون‌نامه‌ی هوش مصنوعی» [۳۰] توسط اتحادیه اروپا تصویب شد که یکی از شاخص‌ترین اسناد در بحث قانون‌گذاری هوش مصنوعی است و با هدف ایجاد چارچوبی نظارتی و تکمیلی در این میدان مطرح شده است. بر طبق این قانون‌نامه، پیاده‌سازی سیستم‌های هوشمند خطرناک و با ریسک بالا ممنوع بوده و شرکت‌ها ملزم هستند که در استفاده از هوش مصنوعی امکان حسابرسی و شفافیت را در نظر داشته باشند.

قانون نامه‌ی هوش مصنوعی اتحادیه اروپا شامل جامع‌ترین مقررات این میدان هستند و هر شخص یا شرکتی را که بخواهد در این رابطه در اروپا کار کند ملزم به رعایت آن‌ها کرده و نیز سازمان استاندارد‌های اروپایی را مرجع پروتکل‌ها و رهنمود‌های نوین و کارکردی دانسته است تا این سازمان بتواند بر اساس این قانون استاندارد‌های جدیدی مطرح کرده و یا موارد قدیمی را به روز کند.

در میانه‌ی سال ۲۰۲۱ «قانون حفاظت از اطلاعات شخصی خلق چین» توسط سیستم قانون‌گذاری این کشور تصویب شد که تمرکز بالای نظارتی بر توافقات، حقوق فردی و شفافیت در حوزه‌ی پردازش داده‌ها دارد.

در طول سال‌ها «مرکز انگلیسی ابداعات و اصول اخلاقی مربوط داده‌ها» [۳۱] (CDEI) مجموعه گزارش‌ها و رهنمود‌هایی در مورد استفاده‌ی مسئولانه از هوش مصنوعی منتشر کرد که شامل مواردی مانند استفاده از هوش مصنوعی در قضاوت، بهداشت و سلامتی، خدمات عمومی و مالی می‌شد.

تنظیم مقررات و قانون‌گذاری هوش مصنوعی به معنی بسط سیاست‌های عمومی مستند شده توسط دولت‌ها و نهاد‌های بین‌المللی در مواجهه با این پدیده است. در بسط قواعد و قوانین سیستم‌های هوشمند دو عامل اصلی در نظر گرفته شده‌اند: نخست تشویق برای ایجاد و استفاده از هوش مصنوعی است و دوم محدود کردن ریسک‌های آن.

قانون‌گذاران عمدتا به سراغ مباحث و چالش‌های عینی و به روز شده‌ای می‌روند که جامعه با آن‌ها درگیر است و مباحث حقوقی درباره‌ی مخاطرات جدی‌تری که ممکن است در پیش باشد دیده نمی‌شود. برای مثال قوانین مربوط به حفظ حریم خصوصی در مواجهه با هوش مصنوعی بسیارند، اما بند‌های مصوب زیادی درباره محدودیت سیستم هوشمندی که خودش را تکثیر کند یا بهبود ببخشد وجود ندارد.

مسائل اخلاقی مربوط به عدم تبعیض جنسی و نژادی در قوانین بسیاری آمده‌اند، اما کمتر دیده می‌شود (اگر نخواهیم بگویی که اصلا دیده نمی‌شود) که بندی قانونی درباره ممنوعیت تلاش برای چیرگی بر بشر به کمک این سیستم‌ها در نظر گرفته شده باشد.

وقتی یک سیستم هوشمند توسعه پیدا می‌کند تمام رسانه‌ها با پراکندن اخبار آن مانع از نشنیده شدنش توسط آحاد مردم جهان می‌شوند، اما گزارش‌های تکان‌دهنده و چالش‌های موجود در مواجهه با فضای کار و شغل و نیز مباحث امنیتی به فیلم‌های تخیلی محدود شده یا کانال‌های یوتیوب آن‌ها را مدیریت می‌کنند. ناگفته نماند که فضای جهانی به سویی حرکت می‌کند که همه‌ی این چالش‌های بزرگ را نیز در ادامه‌ی تهیه‌ی مقررات و قانون‌گذاری هوش مصنوعی شامل شده و تهدیدات جدی‌تر را پوشش دهد.

 


پی‌نوشت‌ها:

[۱] Joseph Weizenbaum: “Computer Power and Human Reason: From Judgment to Calculation”

[۲] World Intellectual Property Organization

[۳] Records, Computers and Rights of Citizens

[۴] Privacy Act

[۵] National Research Act

[۶] Foreign Intelligence Surveillance Act

[۷] Council of Europe Convention ۱۰۸

[۸] Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data

[۹] Organization for Economic Co-operation and Development

[۱۰] The Electronic Communications Privacy Act

[۱۱] The Computer Fraud and Abuse Act

[۱۲] Swiss Federal Data Protection Ordinance

[۱۳] Data Protection Directive

[۱۴] The General Data Protection Regulation

[۱۵] Digital Millennium Copyright Act

[۱۶] Children’s Online Privacy Protection Act

[۱۷] Privacy and Electronic Communications Directive

[۱۸] e-Privacy Directive

[۱۹] Convention on Cybercrime

[۲۰] Genetic Information Nondiscrimination Act

[۲۱] United States Federal Trade Commission

[۲۲] United Nations Guiding Principles on Business and Human Rights

[۲۳] The Data Privacy Act

[۲۴] Digital Economy Strategy

[۲۵] Clarifying Lawful Overseas Use of Data

[۲۶] California Consumer Privacy Act

[۲۷] OECD AI Principles

[۲۸] AI Policy Observatory

[۲۹] Artificial Intelligence Video Interview Act

[۳۰] Artificial Intelligence Act

[۳۱] United Kingdom’s Centre for Data Ethics and Innovation