هوش مصنوعی مولد توان تغییر دادن بسیاری چیزها را دارد و مدیریت صحیح آن حائز اهمیت فراوانی است.
به گزارش گرداب، گسترش پرشتاب فناوری هوش مصنوعی و به ویژه هوش مصنوعی مولد میتواند فرصتهای اقتصادی فراوانی را برای سرمایهگذاران خطرپذیر ایجاد کند. با این حال بایستی در نظر گرفت که این شتاب روزافزون میتواند مخاطراتی را نیز برای جوامع ایجاد کند. این نیاز به تنظیمگری به طور بالقوه میتواند با تلاشهای سودگرایانهی سرمایهگذاران در تقابل قرار بگیرد.
عفو بینالملل (Amnesty International) در گزارشی به بررسی اینگونه مخاطرات میپردازد.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
نظرسنجی از ۱۰ شرکت بزرگ سرمایهگذاری و دو حامی شرکتهای نوپا که صنعت هوش مصنوعی را تامین مالی میکنند نشان داد که آنها به ندرت گامهایی برای حفاظت از حقوق بشر برداشتهاند.
شرکتهای پیشروی سرمایهگذاری (VC) در مسئولیت خود برای احترام به حقوق بشر، بهویژه در رابطه با فناوریهای جدید هوش مصنوعی مولد، ناکام هستند، در این مورد سازمان عفو بینالملل و مرکز منابع تجارت و حقوق بشر در تحقیقی که به تازگی منتشر کرده هشدار داد.
هوش مصنوعی مولد در حال تبدیل شدن به یک فناوری متحولکننده است که به طور بالقوه میتواند همه چیز را در زندگی ما تغییر دهد. در حالی که این فناوری نوظهور فرصتهای جدیدی را ارائه میکند، اما خطرات بسیاری نیز به همراه دارد که اگر کنترل نشود، میتواند منجر به نقض حقوق بشر شود.
شرکتهای پیشروی سرمایهگذاری از اجرای فرآیندهای اساسی حقوق بشر (همانطور که توسط اصول راهنمای سازمان ملل در زمینه تجارت و حقوق بشر UNGPs الزامی شده است) برای اطمینان از رعایت حقوق شرکتها و فناوریهایی که تامین میکنند، خودداری کردهاند. این امر به ویژه با توجه به تأثیرات بالقوه متحولکنندهای که فناوریهای هوش مصنوعی مولد میتوانند بر اقتصاد، سیاست و جوامع ما داشته باشند، نگرانکننده است.
مایکل کلینمن (Michael Kleinman) میگوید: «هوش مصنوعی مولد در حال تبدیل شدن به یک فناوری متحولکننده است که به طور بالقوه میتواند همه چیز را در زندگی ما لمس کند. در حالی که این فناوری نوظهور فرصتهای جدیدی را ارائه میکند، اما خطرات باورنکردنی نیز به همراه دارد که اگر کنترل نشود، میتواند ناقض حقوق بشر باشد. در حالی که به شدت در این زمینه سرمایهگذاری شده است؛ اما ما باید اطمینان حاصل کنیم که این پول به شیوهای مسئولانه و با رعایت حقوق به کار گرفته میشود».
در ۹ دسامبر، مذاکرهکنندگان اتحادیه اروپا در مورد قانون هوش مصنوعی به توافق سیاسی رسیدند و راه را برای نظارت قانونی بر فناوری هموار کردند. این قانون تاکنون جامعترین قانون جهان در زمینه هوش مصنوعی در نظر گرفته میشود و شرکتها را در سطح جهانی تحت تأثیر قرار میدهد – به این معنی که شرکتهای سرمایهگذاری باید به سرعت در رویکرد خود تجدید نظر کنند. سیستمهای هوش مصنوعی پرخطر باید تحت تاثیر ارزیابیهای حقوق اساسی قرار بگیرند.
پارلمان اروپا اعلام کرد که الگوریتمهایی که مضرات بالقوه قابلتوجهی به سلامت، ایمنی، حقوق اساسی، محیطزیست، دموکراسی و حاکمیت قانون دارند، پرخطر محسوب میشوند، از جمله سیستمهای هوش مصنوعی که میتوانند بر نتایج انتخابات و رفتار رأیدهندگان تأثیر بگذارند. این قانون همچنین به شهروندان این حق را میدهد که برای تصمیمات مبتنی بر هوش مصنوعی که بر حقوق آنها تأثیر گذاشته است، شکایت کنند و توضیحاتی دریافت کنند.
مردیث ویت (Meredith Veit)، محقق فناوری و حقوق بشر، از مرکز منابع تجاری و حقوق بشر، گفت: «از تاثیر حقوق اساسی و تعهد ارزیابی در قانون جدید هوش مصنوعی اتحادیه اروپا به ویژه با توجه به تأثیر آن بر استقرار سیستمهای هوش مصنوعی تازه بسیار استقبال میشود، اما با توجه به جزئیات دقیقتر که هنوز نهایی نشده است، ضروری است که یک رویکرد مبتنی بر حقوق بشر در الزامات خاصتر مقررات (برای عاملین دولتی و خصوصی) اتخاذ شود. به این ترتیب سرمایهگذاران میتوانند با در نظر گرفتن حقوق بشر و خطرات موجود آگاهانه تصمیمگیری کنند. در حالی که اتحادیه اروپا در حال پیشبرد قوانین اجباری مهم شرکتی در قالب قانون CSDDD (قانون بررسی دقیق همکاری پایدار) است که امیدواریم بتواند برخی از حفرههای قانون هوش مصنوعی را پر کند، اما نمیتوان به آن اعتماد کرد تا همه عاملین اکوسیستم فناوری را پاسخگو بداند. برای مثال، شرکتهای نوپایی که سیستمهای هوش مصنوعی بالقوه مضر را توسعه میدهند، باید از طریق قانون هوش مصنوعی اتحادیه اروپا مورد بررسی قرار بگیرند، چون عملکرد آنها در چارچوب CSDDD نیست».
برای ارزیابی میزانی که شرکتهای پیشرو VC در سرمایهگذاریهای خود در شرکتهای توسعهدهنده هوش مصنوعی مولد بررسی حقوق بشر را انجام میدهند، عفو بینالملل ایالات متحده آمریکا و مرکز منابع حقوق بشر و کسب و کار، ۱۰ صندوق سرمایهگذاری بزرگ را که در شرکتهای هوش مصنوعی پرخطر سرمایهگذاری کردهاند، و ۲ مورد از بزرگترین شرکتهای نوپا که فعالانهترین سرمایهگذاری را روی هوش مصنوعی انجام میدهند را بررسی کردند.
شرکتهای سرمایهگذاری و شرکتهای نوپای حمایتگر در آمریکا عبارتند از:
Insight Partners, Tiger Global Management, Sequoia Capital, Andreessen Horowitz, Lightspeed Venture Partners, New Enterprise Associates, Bessemer Venture Partners, General Catalyst Partners, Founders Fund, Technology Crossover Ventures, Techstars, Y Combinator.
این تجزیه و تحلیل نشان داد که اکثر شرکتهای پیشرو VC و شرکتهای نوپا مسئولیت خود را برای احترام به حقوق بشر هنگام سرمایهگذاری در شرکتهای هوش مصنوعی پرخطر نادیده میگیرند:
این گزارش از شرکتهای VC میخواهد که به UNGPs پایبند باشند، و تصریح میکند هم سرمایهگذاران و هم شرکتهای سرمایهگذار باید گامهای فعال و مستمری برای شناسایی و پاسخگویی به تأثیرات بالقوه یا واقعی هوش مصنوعی و حقوق بشر بردارند. این مستلزم انجام اقدامات لازم در زمینه حقوق بشر برای شناسایی، پیشگیری، کاهش و پاسخگویی آنها به چگونگی تأثیرات عملکردشان بر حقوق بشر است.
کلینمن افزود: «هوش مصنوعی مولد پتانسیل بسیاری دارد، اما میتواند آسیبهای فیزیکی، آسیب روانی، آسیبهای جدی و آسیب اجتماعی، بیثباتی اقتصادی، از دست دادن استقلال یا فرصتها و تبعیضهای سیستماتیک را برای افراد و جوامع بیشتر کند». این امر به ویژه در مورد استفاده از هوش مصنوعی در موارد پرخطر صدق میکند؛ مانند مناطق جنگی، گذرگاههای مرزی، یا زمانی که بر افراد آسیبپذیر اثر میگذارد.
در جهان کنونی، هیچکدام از تهدیدها نمیتوانند از این خطرها حیاتیتر و جدیتر باشند. شرکتهای سرمایهگذاری مولد مسئولیت فوری دارند تا گامهای فعال و مداوم برای شناسایی و پاسخگویی به تأثیرات بالقوه یا واقعی هوش مصنوعی پرخطر بر حقوق بشر بردارند.
ویت نتیجه گرفت: «البته، زمانی که فناوریهای جدید با استفاده از رویکرد انسان محور طراحی شوند، میتوان پتانسیل عظیمی را مشاهده کرد. متأسفانه، تاکنون وضعیت هوش مصنوعی نشان داده که عملکرد آنها تا حد زیادی به حداکثر کردن سود شخصی برای افراد مختلف منجر شده است. اما هنوز برای سرمایهگذاران، شرکتها و دولتها دیر نیست که کنترل نحوه طراحی، توسعه و بهکارگیری این فناوری را دوباره به دست بگیرند. تصمیمات خاصی وجود دارد که نباید اجازه دهیم هوش مصنوعی به جای ما تصمیم بگیرد».