Gerdab.IR | گرداب

عفو بین‌الملل گزارش می‌دهد؛

رفتار نامسئولانه شرکت‌های سرمایه‌گذاری هوش مصنوعی

رفتار نامسئولانه شرکت‌های سرمایه‌گذاری هوش مصنوعی
تاریخ انتشار : ۳۰ بهمن ۱۴۰۲

هوش مصنوعی مولد توان تغییر دادن بسیاری چیز‌ها را دارد و مدیریت صحیح آن حائز اهمیت فراوانی است.

به گزارش گرداب، گسترش پرشتاب فناوری هوش مصنوعی و به ویژه هوش مصنوعی مولد می‌تواند فرصت‌های اقتصادی فراوانی را برای سرمایه‌گذاران خطرپذیر ایجاد کند. با این حال بایستی در نظر گرفت که این شتاب روزافزون می‌تواند مخاطراتی را نیز برای جوامع ایجاد کند. این نیاز به تنظیم‌گری به طور بالقوه می‌تواند با تلاش‌های سودگرایانه‌ی سرمایه‌گذاران در تقابل قرار بگیرد.

عفو بین‌الملل (Amnesty International) در گزارشی به بررسی اینگونه مخاطرات می‌پردازد.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


نظرسنجی از ۱۰ شرکت بزرگ سرمایه‌گذاری و دو حامی شرکت‌های نوپا که صنعت هوش مصنوعی را تامین مالی می‌کنند نشان داد که آن‌ها به ندرت گام‌هایی برای حفاظت از حقوق بشر برداشته‌اند.

شرکت‌های پیشروی سرمایه‌گذاری (VC) در مسئولیت خود برای احترام به حقوق بشر، به‌ویژه در رابطه با فناوری‌های جدید هوش مصنوعی مولد، ناکام هستند، در این مورد سازمان عفو بین‌الملل و مرکز منابع تجارت و حقوق بشر در تحقیقی که به تازگی منتشر کرده هشدار داد.

هوش مصنوعی مولد در حال تبدیل شدن به یک فناوری متحول‌کننده است که به طور بالقوه می‌تواند همه چیز را در زندگی ما تغییر دهد. در حالی که این فناوری نوظهور فرصت‌های جدیدی را ارائه می‌کند، اما خطرات بسیاری نیز به همراه دارد که اگر کنترل نشود، می‌تواند منجر به نقض حقوق بشر شود.

شرکت‌های پیشروی سرمایه‌گذاری از اجرای فرآیند‌های اساسی حقوق بشر (همان‌طور که توسط اصول راهنمای سازمان ملل در زمینه تجارت و حقوق بشر UNGPs الزامی شده است) برای اطمینان از رعایت حقوق شرکت‌ها و فناوری‌هایی که تامین می‌کنند، خودداری کرده‌اند. این امر به ویژه با توجه به تأثیرات بالقوه متحول‌کننده‌ای که فناوری‌های هوش مصنوعی مولد می‌توانند بر اقتصاد، سیاست و جوامع ما داشته باشند، نگران‌کننده است.

مایکل کلینمن (Michael Kleinman) می‌گوید: «هوش مصنوعی مولد در حال تبدیل شدن به یک فناوری متحول‌کننده است که به طور بالقوه می‌تواند همه چیز را در زندگی ما لمس کند. در حالی که این فناوری نوظهور فرصت‌های جدیدی را ارائه می‌کند، اما خطرات باورنکردنی نیز به همراه دارد که اگر کنترل نشود، می‌تواند ناقض حقوق بشر باشد. در حالی که به شدت در این زمینه سرمایه‌گذاری شده است؛ اما ما باید اطمینان حاصل کنیم که این پول به شیوه‌ای مسئولانه و با رعایت حقوق به کار گرفته می‌شود».

در ۹ دسامبر، مذاکره‌کنندگان اتحادیه اروپا در مورد قانون هوش مصنوعی به توافق سیاسی رسیدند و راه را برای نظارت قانونی بر فناوری هموار کردند. این قانون تاکنون جامع‌ترین قانون جهان در زمینه هوش مصنوعی در نظر گرفته می‌شود و شرکت‌ها را در سطح جهانی تحت تأثیر قرار می‌دهد – به این معنی که شرکت‌های سرمایه‌گذاری باید به سرعت در رویکرد خود تجدید نظر کنند. سیستم‌های هوش مصنوعی پرخطر باید تحت تاثیر ارزیابی‌های حقوق اساسی قرار بگیرند.

پارلمان اروپا اعلام کرد که الگوریتم‌هایی که مضرات بالقوه قابل‌توجهی به سلامت، ایمنی، حقوق اساسی، محیط‌زیست، دموکراسی و حاکمیت قانون دارند، پرخطر محسوب می‌شوند، از جمله سیستم‌های هوش مصنوعی که می‌توانند بر نتایج انتخابات و رفتار رأی‌دهندگان تأثیر بگذارند. این قانون همچنین به شهروندان این حق را می‌دهد که برای تصمیمات مبتنی بر هوش مصنوعی که بر حقوق آن‌ها تأثیر گذاشته است، شکایت کنند و توضیحاتی دریافت کنند.

مردیث ویت (Meredith Veit)، محقق فناوری و حقوق بشر، از مرکز منابع تجاری و حقوق بشر، گفت: «از تاثیر حقوق اساسی و تعهد ارزیابی در قانون جدید هوش مصنوعی اتحادیه اروپا به ویژه با توجه به تأثیر آن بر استقرار سیستم‌های هوش مصنوعی تازه بسیار استقبال می‌شود، اما با توجه به جزئیات دقیق‌تر که هنوز نهایی نشده است، ضروری است که یک رویکرد مبتنی بر حقوق بشر در الزامات خاص‌تر مقررات (برای عاملین دولتی و خصوصی) اتخاذ شود. به این ترتیب سرمایه‌گذاران می‌توانند با در نظر گرفتن حقوق بشر و خطرات موجود آگاهانه تصمیم‌گیری کنند. در حالی که اتحادیه اروپا در حال پیشبرد قوانین اجباری مهم شرکتی در قالب قانون CSDDD (قانون بررسی دقیق همکاری پایدار) است که امیدواریم بتواند برخی از حفره‌های قانون هوش مصنوعی را پر کند، اما نمی‌توان به آن اعتماد کرد تا همه عاملین اکوسیستم فناوری را پاسخگو بداند. برای مثال، شرکت‌های نوپایی که سیستم‌های هوش مصنوعی بالقوه مضر را توسعه می‌دهند، باید از طریق قانون هوش مصنوعی اتحادیه اروپا مورد بررسی قرار بگیرند، چون عملکرد آن‌ها در چارچوب CSDDD نیست».

برای ارزیابی میزانی که شرکت‌های پیشرو VC در سرمایه‌گذاری‌های خود در شرکت‌های توسعه‌دهنده هوش مصنوعی مولد بررسی حقوق بشر را انجام می‌دهند، عفو بین‌الملل ایالات متحده آمریکا و مرکز منابع حقوق بشر و کسب و کار، ۱۰ صندوق سرمایه‌گذاری بزرگ را که در شرکت‌های هوش مصنوعی پرخطر سرمایه‌گذاری کرده‌اند، و ۲ مورد از بزرگ‌ترین شرکت‌های نوپا که فعالانه‌ترین سرمایه‌گذاری را روی هوش مصنوعی انجام می‌دهند را بررسی کردند.

شرکت‌های سرمایه‌گذاری و شرکت‌های نوپای حمایت‌گر در آمریکا عبارتند از:

Insight Partners, Tiger Global Management, Sequoia Capital, Andreessen Horowitz, Lightspeed Venture Partners, New Enterprise Associates, Bessemer Venture Partners, General Catalyst Partners, Founders Fund, Technology Crossover Ventures, Techstars, Y Combinator.

این تجزیه و تحلیل نشان داد که اکثر شرکت‌های پیشرو VC و شرکت‌های نوپا مسئولیت خود را برای احترام به حقوق بشر هنگام سرمایه‌گذاری در شرکت‌های هوش مصنوعی پرخطر نادیده می‌گیرند:

  • تنها ۳ شرکت از ۱۲ شرکت به تعهد عمومی برای در نظر گرفتن فناوری مسئولانه در سرمایه‌گذاری خود اشاره می‌کنند.
  • تنها یکی از ۱۲ شرکت به تعهد صریح به حقوق بشر اشاره می‌کند.
  • تنها یک شرکت از ۱۲ شرکت اعلام کرده است که هنگام تصمیم‌گیری برای سرمایه‌گذاری در شرکت‌ها، بررسی‌های لازم را برای مسائل مربوط به حقوق بشر انجام می‌دهد.
  • و تنها یکی از ۱۲ شرکت در حال حاضر از نمونه کار‌های شرکتی خود در زمینه مسائل مربوط به فناوری پشتیبانی می‌کند.

این گزارش از شرکت‌های VC می‌خواهد که به UNGPs پایبند باشند، و تصریح می‌کند هم سرمایه‌گذاران و هم شرکت‌های سرمایه‌گذار باید گام‌های فعال و مستمری برای شناسایی و پاسخگویی به تأثیرات بالقوه یا واقعی هوش مصنوعی و حقوق بشر بردارند. این مستلزم انجام اقدامات لازم در زمینه حقوق بشر برای شناسایی، پیشگیری، کاهش و پاسخگویی آن‌ها به چگونگی تأثیرات عملکردشان بر حقوق بشر است.

کلینمن افزود: «هوش مصنوعی مولد پتانسیل بسیاری دارد، اما می‌تواند آسیب‌های فیزیکی، آسیب روانی، آسیب‌های جدی و آسیب اجتماعی، بی‌ثباتی اقتصادی، از دست دادن استقلال یا فرصت‌ها و تبعیض‌های سیستماتیک را برای افراد و جوامع بیشتر کند». این امر به ویژه در مورد استفاده از هوش مصنوعی در موارد پرخطر صدق می‌کند؛ مانند مناطق جنگی، گذرگاه‌های مرزی، یا زمانی که بر افراد آسیب‌پذیر اثر می‌گذارد.

در جهان کنونی، هیچ‌کدام از تهدید‌ها نمی‌توانند از این خطر‌ها حیاتی‌تر و جدی‌تر باشند. شرکت‌های سرمایه‌گذاری مولد مسئولیت فوری دارند تا گام‌های فعال و مداوم برای شناسایی و پاسخگویی به تأثیرات بالقوه یا واقعی هوش مصنوعی پرخطر بر حقوق بشر بردارند.

ویت نتیجه گرفت: «البته، زمانی که فناوری‌های جدید با استفاده از رویکرد انسان محور طراحی شوند، می‌توان پتانسیل عظیمی را مشاهده کرد. متأسفانه، تاکنون وضعیت هوش مصنوعی نشان داده که عملکرد آن‌ها تا حد زیادی به حداکثر کردن سود شخصی برای افراد مختلف منجر شده است. اما هنوز برای سرمایه‌گذاران، شرکت‌ها و دولت‌ها دیر نیست که کنترل نحوه طراحی، توسعه و به‌کارگیری این فناوری را دوباره به دست بگیرند. تصمیمات خاصی وجود دارد که نباید اجازه دهیم هوش مصنوعی به جای ما تصمیم بگیرد».