هر زمان که فناوری در حیطهای جدید معرفی میشود، علاوه بر پیامدهای جزئی و آشکار، احتمالاً پیامدهایی فراگیر نیز حاصل میشود؛ حتی اگر تغییرات فنی صرفاً جایگزین باشند.
به گزارش گرداب، در پرونده قبلی به ۵ کاربرد اصلی هوش مصنوعی در حوزه سیاست اشاره کردیم. تمام این پنج نوع عملکرد هوش مصنوعی در حوزهی سیاسی پیامدهایی اخلاقی در پی دارند. از آنجایی که اصول اخلاقی هوش مصنوعی با سیاست مرتبط است، هنگام استفاده از هوش مصنوعی با چنین شیوههایی، در نظر گرفتن چنین اصولی اولین گام ضروری به شمار میآید. بررسی انواع کارکردهای هوش مصنوعی که در اینجا معرفی شد، امکان ارزیابی اصولی این سامانهها و چالشهای اخلاقی مربوط به آنها را فراهم میکند.
چالشهایی که در اینجا مطرح شد شامل این موارد است: جایگزینی تخصص انسانی، مسئولیتپذیری برای فعالیتهای ماشینی، محدودیت مشارکت و مداخلات انسان در سیاست، تصمیمگیری پیرامون اینکه کدام مسائل سیاسی هستند و کدام یک فنی، ارزش و ماهیت دموکراسی، مشروعیت سیاسی، و تشدید جهتگیریها و تبعیضهایی ناشی از معرفی ماشین.
بررسی این چالشها فراتر از چارچوب این فصل است، ولی سترا با جزئیات پیرامون این مسائل توضیح داده است. با این حال، استفاده از هوش مصنوعی در سیاست پیامدهای دیگری نیز دارد که کمتر درمورد آنها صحبت شده و ادامهی این فصل به طرح این موارد اختصاص پیدا میکند. اینها پیامدهایی بلند مدت، نامحسوس و غیرمستقیم استفاده از هوش مصنوعی هستند.
هر زمان که فناوری در حیطهای جدید معرفی میشود، علاوه بر پیامدهای جزئی و آشکار، احتمالاً پیامدهایی فراگیر نیز حاصل میشود؛ حتی اگر تغییرات فنی صرفاً جایگزین باشند. بهرهگیری از فناوری در محدودهی کوچک دیوانسالاری، ممکن است نظرات در داخل و خارج از حکومتهای دیوانسالار را نسبت به فناوری تغییر دهد. بعلاوه، ممکن است ارائهی فناوری باعث ایجاد وابستگی شود. زیرا انسانها نمیتوانند وظایفی را که در گذشته بهعهده داشتند و بعد به ماشینها واگذار شد، مثل قبل انجام دهند. همچنین ممکن است این مسئله بر وظایف و عملکردهایی مشابه نیز تأثیرگذار باشد.
در نتیجه، معرفی ماشینها منجر به تقاضا برای ماشینهای بیشتر میشود. طی چنین فرآیندهایی، دیجیتالی شدن بخش دولتی ممکن است از طریق انتخابها و روندهای سیاسی رخ ندهد، بلکه این اتفاق با گسترش هوش مصنوعی به وقوع میپیوندد.
اگر بخش دولتی قصد داشته باشد برای تحلیل و پیشبینی از کارکردهای هوش مصنوعی مبتنی بر پروفایلهای صفات شخصیتی استفاده کند، ممکن است چالشهای مربوط به حریم خصوصی و قوانین نظارتی تشدید شود. ایجاد «همسانهای فکری» ایدهی جذابی است؛ چیزی که امکان تجربههای فراواقعی و فراگیر دیجیتالی را فراهم میکند، جستجو بهدنبال سیاستهای مورد نظر است. با این حال، احتمال استفاده از این مشخصات شخصیتی برای تأثیرگذاری و کنترل افراد یکی از دلایل امتناع از چنین شیوههایی است.
روشی جایگزین این است که از الگوی عامل بنیان استفاده کنیم، بدون اینکه افراد واقعی را نوعی عامل نشان دهیم. در الگوی عامل بنیان، پژوهشهای زیادی درمورد خلق جوامعی ساختگی انجام شده است؛ از جمله جوامعی با میزان مشخصی از سیاست. استفاده از چنین شبیهسازیهایی مانند نمونهی مربوط به هوش مصنوعی اقتصاددان نگرانیهای مربوط به حریم خصوصی و قوانین نظارتی را کاهش میدهد.
هنگامی که یک تغییر بر مؤسسات بنیادین جوامع اثر بگذارند، اثرگذاری آنها بر گروههای مختلف نیز باید در نظر گرفته شود.
برای مثال، در حال حاضر در فرآیندهای سیاستگذاری، تبعیض جنسیتی وجود دارد و دیجیتالی شدن چنین فرآیندهایی بر این تبعیضها اثر میگذارد و آنها را تشدید میکند. یکی از نگرانیها این است که دنیای فناوری مردسالار، شرایط و موقعیتهایی را ایجاد میکند که از بسیاری جهات به نفع مردها خواهد بود. زمانی که جنسیتهای مختلف بهطور مساوری در طراحی و توسعهی سامانهها مدنظر قرار داده نشوند، ممکن است بهصورت مستقیم یا غیرمستقیم باعث تبعیض میان آنها شود. علاوهبرآن، ممکن است گروههایی خاص از فرصتهای جدیدی که فناوری در اختیار آنها قرار داده، بهره و نفع بیشتری ببرند.
توسعه و به کارگیری هوش مصنوعی به شیوهای پایدار و مسئولانه، مستلزم مقابله با این چالشها با روشی مناسب است. از آنجایی که مسائل پیرامون هوش مصنوعی در سیاست به ساختار نظامهای سیاسی ما مربوط است، شهروندان باید در نحوهی بهکارگیری هوش مصنوعی مداخله داشته باشند. یکی از روشهای مداخلهی افراد ذینفع در سامانههای هوش مصنوعی با کارکردهایی اجتماعی یا بحثبرانگیز این است که سامانههایی را ایجاد کنیم که جامعه را وارد چرخه میکند.
چنین پیشنهاداتی با ایدهی مطرح شده در این فصل، و لزوم مشارکت عموم مردم و بهطور کلی جامعه در تصمیمگیریهایی که ممکن است در نهایت ماهیت نظام سیاسی را تغییر دهند، هم راستا است. طبق ارزیابی مفاهیم اخلاقی هوش مصنوعی در سیاست، حتی بهرهگیری کوچک و جزئی از سامانههای هوش مصنوعی در سیاست بیخطر نیست و چیزی نیست که بدون مباحثات گستده پیرامون اصول بهکارگیری هوش مصنوعی در سیاست قابل انجام باشد.
نتیجهگیری
در این مجموعه پرونده انواع کارکردهای هوش مصنوعی در حوزههای سیاسی را بررسی کردیم؛ از کارکرد هوش مصنوعی برای تحلیلهای ساده گرفته تا تبدیل شدن هوش مصنوعی به چیزی شبیه تکنوکرات. هدف سیاست تکبعدی نیست و این مستلزم تحلیل جامع اهداف و اولویتهایی است که یک جامعه برای نظام سیاسی و تأثیرات مختلف بهکارگیری هوش مصنوعی در نظر دارد. برای مثال، ممکن است یک جامعه برای بازدهی تصمیمگیریهای سیاسی و نتایج نهایی حاصله ارزش قائل باشد و همزمان به مشارکت فعالانه و گستردهی عموم و رعایت اصول اولیهی دموکراتیک نیز اهمیت دهد. ممکن است این دو مورد با هم سازگار باشند، ولی ضرورتاً اینطور نیست.
با اینکه ظاهراً هوش مصنوعی تصمیمات و فرآیندهای تصمیمگیری مربوط به سیاست را ارتقاء میدهد، ولی چنین جایگاهی منوط به دو فرضیهی بحثبرانگیز است. اولین فرضیه این است که احتمال دارد به برخی از مسائل سیاسی، برچسب مسائل فنی زده شود و متعاقباً ابزاری برای بهینهسازی در نظر گرفته شوند، بدون اینکه به سیاست مرتبط باشند. این باعث میشود از این مسئله غافل شویم که چگونه همهی تصمیمات با ماهیت سیاسی، بر توزیع مزایا و معایب تأثیر میگذارند و به این لحاظ مسائلی با اهمیت سیاسی یا اخلاقی به شمار میآیند.
دومین فرضیه این است که شاید با حذف انسانها از معادله، تصمیمات ارتقاء پیدا کنند، ولی چنین کاری باعث میشود مزایای مشارکت فعالانهی افراد در سیاست از بین برود. با وجود اینکه شاید تصمیماتی که توسط انسانها گرفته میشود پایینتر از حد مطلوب قرار بگیرند، ولی چیزی که آنها از طریق فرآیندها و مسائل سیاسی و یا از یکدیگر میآموزند نیز ارزشمند است.
توانمندی هوش مصنوعی در سیاست بسیار زیاد است و بهرهگیری از این توانمندی با این سرعت اثباتی بر این ادعاست. با این وجود، علاوه بر این مثبتاندیشیها باید در نظر داشته باشیم که اثرات منفی استفاده از هوش مصنوعی در سیاست نیز بسیار چشمگیر است. برقراری این توازن، مستلزم مشارکتی گسترده است و این در جوامع دموکراتیک به معنی مشارکت عموم مردم خواهد بود. جوامع در ابتدا درمورد اهداف بنیادین خود تصمیمگیری میکنند و سپس در این مورد تصمیم میگیرند که آیا استفاده از هوش مصنوعی در سیاست برای دستیابی به آن اهداف سودمند است یا خیر.
__________________________________
فهرست منابع:
Sætra, H. S. (۲۰۲۰b). A shallow defence of a technocracy of artificial intelligence: Examining the political harms of algorithmic governance in the domain of government. Technology in Society, ۱۰۱۲۸۳.
Sætra, H. S. (۲۰۲۱). AI in context and the sustainable development goals: Factoring in the unsus- tainability of the sociotechnical system. Sustainability, ۱۳ (۴). https://doi.org/۱۰.۳۳۹۰/su۱۳۰۴، ۱۷۳۸.
Næss, A. (۱۹۸۹). Ecology, community and lifestyle: Outline of an ecosophy. Cambridge university press.
Zheng, S. , Trott, A. , Srinivasa, S. , Naik, N. , Gruesbeck, M. , Parkes, D. C. , & Socher, R. (۲۰۲۰). The ai economist: Improving equality and productivity with ai-driven tax policies.
Yeung, K. (۲۰۱۷). 'Hypernudge': Big Data as a mode of regulation by design. Information, Communication & Society, ۲۰ (۱) , ۱۱۸–۱۳۶.