هوش مصنوعی و سیاست ۴ 

پرونده / نگرانی‌ها از رواج هوش مصنوعی در سیاست

پرونده / نگرانی‌ها از رواج هوش مصنوعی در سیاست
تاریخ انتشار : ۱۵ اسفند ۱۴۰۱

هر زمان که فناوری در حیطه‌ای جدید معرفی می‌شود، علاوه بر پیامد‌های جزئی و آشکار، احتمالاً پیامد‌هایی فراگیر نیز حاصل می‌شود؛ حتی اگر تغییرات فنی صرفاً جایگزین باشند.

به گزارش گرداب، در پرونده قبلی به ۵ کاربرد اصلی هوش مصنوعی در حوزه سیاست اشاره کردیم. تمام این پنج نوع عملکرد هوش مصنوعی در حوزه‌ی سیاسی پیامد‌هایی اخلاقی در پی دارند. از آن‌جایی که اصول اخلاقی هوش مصنوعی با سیاست مرتبط است، هنگام استفاده از هوش مصنوعی با چنین شیوه‌هایی، در نظر گرفتن چنین اصولی اولین گام ضروری به شمار می‌آید. بررسی انواع کارکرد‌های هوش مصنوعی که در این‌جا معرفی شد، امکان ارزیابی اصولی این سامانه‌ها و چالش‌های اخلاقی مربوط به آن‌ها را فراهم می‌کند.

چالش‌هایی که در این‌جا مطرح شد شامل این موارد است: جایگزینی تخصص انسانی، مسئولیت‌پذیری برای فعالیت‌های ماشینی، محدودیت مشارکت و مداخلات انسان در سیاست، تصمیم‌گیری پیرامون این‌که کدام مسائل سیاسی هستند و کدام یک فنی، ارزش و ماهیت دموکراسی، مشروعیت سیاسی، و تشدید جهت‌گیری‌ها و تبعیض‌هایی ناشی از معرفی ماشین.

بررسی این چالش‌ها فراتر از چارچوب این فصل است، ولی سترا با جزئیات پیرامون این مسائل توضیح داده است. با این حال، استفاده از هوش مصنوعی در سیاست پیامد‌های دیگری نیز دارد که کم‌تر درمورد آن‌ها صحبت شده و ادامه‌ی این فصل به طرح این موارد اختصاص پیدا می‌کند. این‌ها پیامد‌هایی بلند مدت، نامحسوس و غیرمستقیم استفاده از هوش مصنوعی هستند.

هر زمان که فناوری در حیطه‌ای جدید معرفی می‌شود، علاوه بر پیامد‌های جزئی و آشکار، احتمالاً پیامد‌هایی فراگیر نیز حاصل می‌شود؛ حتی اگر تغییرات فنی صرفاً جایگزین باشند. بهره‌گیری از فناوری در محدوده‌ی کوچک دیوان‌سالاری، ممکن است نظرات در داخل و خارج از حکومت‌های دیوان‌سالار را نسبت به فناوری تغییر دهد. بعلاوه، ممکن است ارائه‌ی فناوری باعث ایجاد وابستگی شود. زیرا انسان‌ها نمی‌توانند وظایفی را که در گذشته به‌عهده داشتند و بعد به ماشین‌ها واگذار شد، مثل قبل انجام دهند. همچنین ممکن است این مسئله بر وظایف و عملکرد‌هایی مشابه نیز تأثیرگذار باشد.

در نتیجه، معرفی ماشین‌ها منجر به تقاضا برای ماشین‌های بیشتر می‌شود. طی چنین فرآیندهایی، دیجیتالی شدن بخش دولتی ممکن است از طریق انتخاب‌ها و روند‌های سیاسی رخ ندهد، بلکه این اتفاق با گسترش هوش مصنوعی به وقوع می‌پیوندد. 

اگر بخش دولتی قصد داشته باشد برای تحلیل و پیش‌بینی از کارکرد‌های هوش مصنوعی مبتنی بر پروفایل‌های صفات شخصیتی استفاده کند، ممکن است چالش‌های مربوط به حریم خصوصی و قوانین نظارتی تشدید شود. ایجاد «همسان‌های فکری» ایده‌ی جذابی است؛ چیزی که امکان تجربه‌های فراواقعی و فراگیر دیجیتالی را فراهم می‌کند، جستجو به‌دنبال سیاست‌های مورد نظر است. با این حال، احتمال استفاده از این مشخصات شخصیتی برای تأثیرگذاری و کنترل افراد یکی از دلایل امتناع از چنین شیوه‌هایی است.

روشی جایگزین این است که از الگوی عامل بنیان استفاده کنیم، بدون این‌که افراد واقعی را نوعی عامل نشان دهیم. در الگوی عامل بنیان، پژوهش‌های زیادی درمورد خلق جوامعی ساختگی انجام شده است؛ از جمله جوامعی با میزان مشخصی از سیاست. استفاده از چنین شبیه‌سازی‌هایی مانند نمونه‌ی مربوط به هوش مصنوعی اقتصاددان نگرانی‌های مربوط به حریم خصوصی و قوانین نظارتی را کاهش می‌دهد.
هنگامی که یک تغییر بر مؤسسات بنیادین جوامع اثر بگذارند، اثرگذاری آن‌ها بر گروه‌های مختلف نیز باید در نظر گرفته شود.

برای مثال، در حال حاضر در فرآیند‌های سیاستگذاری، تبعیض جنسیتی وجود دارد و دیجیتالی شدن چنین فرآیند‌هایی بر این تبعیض‌ها اثر می‌گذارد و آن‌ها را تشدید می‌کند. یکی از نگرانی‌ها این است که دنیای فناوری مردسالار، شرایط و موقعیت‌هایی را ایجاد می‌کند که از بسیاری جهات به نفع مرد‌ها خواهد بود. زمانی که جنسیت‌های مختلف به‌طور مساوری در طراحی و توسعه‌ی سامانه‌ها مدنظر قرار داده نشوند، ممکن است به‌صورت مستقیم یا غیرمستقیم باعث تبعیض میان آن‌ها شود. علاوه‌برآن، ممکن است گروه‌هایی خاص از فرصت‌های جدیدی که فناوری در اختیار آن‌ها قرار داده، بهره و نفع بیشتری ببرند.

توسعه و به کارگیری هوش مصنوعی به شیوه‌ای پایدار و مسئولانه، مستلزم مقابله با این چالش‎ها با روشی مناسب است. از آن‌جایی که مسائل پیرامون هوش مصنوعی در سیاست به ساختار نظام‌های سیاسی ما مربوط است، شهروندان باید در نحوه‌ی به‌کارگیری هوش مصنوعی مداخله داشته باشند. یکی از روش‎های مداخله‌ی افراد ذی‌نفع در سامانه‌های هوش مصنوعی با کارکرد‌هایی اجتماعی یا بحث‌برانگیز این است که سامانه‌هایی را ایجاد کنیم که جامعه را وارد چرخه می‌کند.

چنین پیشنهاداتی با ایده‌ی مطرح شده در این فصل، و لزوم مشارکت عموم مردم و به‌طور کلی جامعه در تصمیم‌گیری‌هایی که ممکن است در نهایت ماهیت نظام سیاسی را تغییر دهند، هم راستا است. طبق ارزیابی مفاهیم اخلاقی هوش مصنوعی در سیاست، حتی بهره‌گیری کوچک و جزئی از سامانه‌های هوش مصنوعی در سیاست بی‌خطر نیست و چیزی نیست که بدون مباحثات گستده پیرامون اصول به‌کارگیری هوش مصنوعی در سیاست قابل انجام باشد.

 نتیجه‌گیری

در این مجموعه پرونده انواع کارکرد‌های هوش مصنوعی در حوزه‌های سیاسی را بررسی کردیم؛ از کارکرد هوش مصنوعی برای تحلیل‌های ساده گرفته تا تبدیل شدن هوش مصنوعی به چیزی شبیه تکنوکرات. هدف سیاست تک‌بعدی نیست و این مستلزم تحلیل جامع اهداف و اولویت‌هایی است که یک جامعه برای نظام سیاسی و تأثیرات مختلف به‌کارگیری هوش مصنوعی در نظر دارد. برای مثال، ممکن است یک جامعه برای بازدهی تصمیم‌گیری‌های سیاسی و نتایج نهایی حاصله ارزش قائل باشد و همزمان به مشارکت فعالانه و گسترده‌ی عموم و رعایت اصول اولیه‌ی دموکراتیک نیز اهمیت دهد. ممکن است این دو مورد با هم سازگار باشند، ولی ضرورتاً این‌طور نیست.

با این‌که ظاهراً هوش مصنوعی تصمیمات و فرآیند‌های تصمیم‌گیری مربوط به سیاست را ارتقاء می‌دهد، ولی چنین جایگاهی منوط به دو فرضیه‌ی بحث‌برانگیز است. اولین فرضیه این است که احتمال دارد به برخی از مسائل سیاسی، برچسب مسائل فنی زده شود و متعاقباً ابزاری برای بهینه‌سازی در نظر گرفته شوند، بدون این‌که به سیاست مرتبط باشند. این باعث می‌شود از این مسئله غافل شویم که چگونه همه‌ی تصمیمات با ماهیت سیاسی، بر توزیع مزایا و معایب تأثیر می‌گذارند و به این لحاظ مسائلی با اهمیت سیاسی یا اخلاقی به شمار می‌آیند.

دومین فرضیه این است که شاید با حذف انسان‌ها از معادله، تصمیمات ارتقاء پیدا کنند، ولی چنین کاری باعث می‌شود مزایای مشارکت فعالانه‌ی افراد در سیاست از بین برود. با وجود این‌که شاید تصمیماتی که توسط انسان‌ها گرفته می‌شود پایین‌تر از حد مطلوب قرار بگیرند، ولی چیزی که آن‌ها از طریق فرآیند‌ها و مسائل سیاسی و یا از یکدیگر می‌آموزند نیز ارزشمند است.

توانمندی هوش مصنوعی در سیاست بسیار زیاد است و بهره‌گیری از این توانمندی با این سرعت اثباتی بر این ادعاست. با این وجود، علاوه بر این مثبت‌اندیشی‌ها باید در نظر داشته باشیم که اثرات منفی استفاده از هوش مصنوعی در سیاست نیز بسیار چشمگیر است. برقراری این توازن، مستلزم مشارکتی گسترده است و این در جوامع دموکراتیک به معنی مشارکت عموم مردم خواهد بود. جوامع در ابتدا درمورد اهداف بنیادین خود تصمیم‌گیری می‌کنند و سپس در این مورد تصمیم می‌گیرند که آیا استفاده از هوش مصنوعی در سیاست برای دستیابی به آن اهداف سودمند است یا خیر.

__________________________________

فهرست منابع:

Sætra, H. S. (۲۰۲۰b). A shallow defence of a technocracy of artificial intelligence: Examining the political harms of algorithmic governance in the domain of government. Technology in Society, ۱۰۱۲۸۳.
Sætra, H. S. (۲۰۲۱). AI in context and the sustainable development goals: Factoring in the unsus- tainability of the sociotechnical system. Sustainability, ۱۳ (۴). https://doi.org/۱۰.۳۳۹۰/su۱۳۰۴، ۱۷۳۸.
Næss, A. (۱۹۸۹). Ecology, community and lifestyle: Outline of an ecosophy. Cambridge university press.
Zheng, S. , Trott, A. , Srinivasa, S. , Naik, N. , Gruesbeck, M. , Parkes, D. C. , & Socher, R. (۲۰۲۰). The ai economist: Improving equality and productivity with ai-driven tax policies.
Yeung, K. (۲۰۱۷). 'Hypernudge': Big Data as a mode of regulation by design. Information, Communication & Society, ۲۰ (۱) , ۱۱۸–۱۳۶.