دیدهبان حقوقبشر گزارش میدهد که الگوریتم بانک جهانی مورد استفاده در اردن باعث بیعدالتی میشود. نشریه اینترسپت به قلم سم بیدل در این رابطه گزارشی منتشر کرده است.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
بر اساس گزارش جدید دیدهبان حقوق بشر، برنامهای که به وسیلهی بانک جهانی مدیریت شده و از تصمیمگیری الگوریتمی برای آزمایش ابزارهای پولی فقرزدایی استفاده میکند، همان افرادی را که قرار است از آنان محافظت کند، در خطر میاندازد. برنامه مبارزه با فقر مورد بحث، معروف به برنامهی یکپارچهی انتقال نقدی به وسیلهی دولت اردن اجرا شد.
داشتن سیستمهای نرمافزاری که انتخابهای مهمی انجام میدهند، اغلب بهعنوان وسیلهای برای منطقیتر، منصفانهتر و مؤثرتر کردن این انتخابها عنوان میشود. با این حال تحقیقات دیدهبان حقوق بشر دریافت که الگوریتم بانک جهانی برای فقرزدایی بر کلیشهها و فرضیات نادرست در مورد فقر تکیه دارد.
در این گزارش آمده است: «مشکل صرفاً این نیست که الگوریتم بر دادههای نادرست و غیرقابل اعتماد در مورد امور مالی افراد متکی است. فرمول آن همچنین پیچیدگی اقتصادی زندگی مردم را به یک رتبهبندی خام تبدیل میکند که یک خانواده را در مقابل خانواده دیگر قرار میدهد و به تنشهای اجتماعی و تصورات ناعادلانه دامن میزند».
این برنامه که در اردن به عنوان تکفل شناخته میشود، برای حل یک مشکل واقعی اجرا شده است. در همین راستا بانک جهانی وام چند میلیارد دلاری فقرزدایی را به دولت اردن ارائه کرد، اما غیرممکن است که این وام تمام نیازهای اردن را پوشش دهد.
برنامهی تکفل با تجزیه و تحلیل درآمد و هزینههای خانوار هر متقاضی، همراه با نزدیک به ۶۰ عامل اجتماعی-اقتصادی مانند مصرف برق، مالکیت خودرو، مجوزهای تجاری، سابقه شغلی، بیماری و جنسیت کار میکند. سپس این عوامل - با استفاده از یک الگوریتم مخفی - رتبهبندی میشوند تا به طور خودکار مشخص شود که چه کسانی فقیرترین و مستحقترین افراد هستند. ایدهی اصلی این است که این الگوریتم با مرتبسازی دادهها و افراد، پول نقد را به آسیبپذیرترین اردنیهایی که شدیداً به آن نیاز دارند هدایت کند. اما به گفتهی دیده بان حقوق بشر، این الگوریتم خراب است و درست کار نمیکند.
تحقیقات گروه حقوقبشری نشان داد که به نظر میرسد مالکیت خودرو برای بسیاری از متقاضیان تکفل یک عامل سلب صلاحیت است، حتی اگر آنها فقیرتر از این باشند که بتوانند برای رانندگی خودرو بنزین بخرند.
به طور مشابه، متقاضیان به دلیل استفاده از برق و آب جریمه میشوند، آن هم بر این فرض که توانایی آنها در پرداخت هزینههای آب و برق نشان میدهد که آنها به اندازهی کسانی که نمیتوانند هزینهی قبضها را پرداخت کنند، فقیر نیستند. با این حال، گزارش دیدهبان حقوق بشر توضیح میدهد که گاهی اوقات مصرف برق دقیقاً به دلایل مرتبط با فقر است. به عنوان مثال، یک مطالعه در سال ۲۰۲۰ در مورد پایداری مسکن در امّان نشان داد که تقریباً ۷۵ درصد از خانوارهای با درآمد پایین تا متوسط مورد بررسی در آپارتمانهایی با عایق حرارتی ضعیف زندگی میکنند که باعث میشود هزینههای گرمایش آنها بیشتر شود.
در موارد دیگر، یک خانوار اردنی ممکن است از برق بیشتری نسبت به همسایگان خود استفاده کند، زیرا لوازم خانگی آنها قدیمی و پر مصرف است.
فراتر از مشکلات فنی خود برنامهی تکفل، تأثیرات وابستگی به ابزار دیجیتال نیز مشکلزا است. این گزارش خاطرنشان میکند که بسیاری از افرادی که نیاز مبرم به پول امدادی دارند، به اینترنت دسترسی ندارند تا حتی برای آن درخواست بدهند. در نهایت این برنامه از آنها میخواهد به یک کافینت بروند و هزینهی آن را بپردازند، جایی که برای آنلاین شدن مشمول هزینههای بیشتری میشوند.
«چه کسی به پول نیاز دارد؟» یکی از دریافت کنندگان ۲۹ سالهی برنامهی تکفل اردنی که با دیده بان حقوق بشر صحبت میکرد، در پاسخ بدین پرسش گفت: «افرادی که واقعاً نمیدانند چگونه [برای درخواست]اقدام کنند یا به اینترنت یا رایانه دسترسی ندارند».
از نظر دیدهبان حقوق بشر همچنین اصرار برنامهی تکفل را بر این که درآمد گزارششده به وسیلهی خود متقاضیان دقیقاً با هزینههای خانوار گزارششده به وسیلهی خودشان مطابقت داشته باشد خطا میداند، زیرا که «نمیداند چگونه مردم برای تأمین مخارج زندگی خود تلاش میکنند، یا اتکای آنها به اعتبار، حمایت از خانواده، و سایر اقدامات موقتی برای پر کردن شکاف را نادیده میگیرد».
این گزارش نشان داد که سختی این مرحله باعث میشود که افراد به سادگی اعداد را جابجا کنند تا درخواست آنها پردازش شود و این امر توهم عینی بودن الگوریتم را تضعیف میکند. در این گزارش آمده است: «اجبار مردم به تجسم فقر و سختیهای خود برای مطابقت با محاسبات الگوریتم، دقت هدفگیری تکفل را تضعیف میکند. همچنین ادعاهای دولت و بانک جهانی را مبنی بر این که این مؤثرترین راه برای به حداکثر رساندن منابع محدود است، پوچ میکند».
این گزارش که بر اساس ۷۰ مصاحبه با متقاضیان تکفل، کارکنان دولت اردن و پرسنل بانک جهانی تهیه شده است، تأکید میکند که این سیستم بخشی از روند گستردهتر بانک جهانی برای رایج کردن مزایای اجتماعی مبتنی بر ابزارهای الگوریتمی بر برنامههای جهانی در سراسر اقتصادهای در حال توسعه در به اصطلاح جنوب جهانی است.
مخدوش کردن اختلال عملکرد یک برنامه الگوریتمی مانند تکفل بسیار ساده است و این فرض ساده لوحانه است که نرم افزار تصمیمگیری خودکار آنقدر پیچیده است که نتایج آن کمتر احتمال دارد معیوب باشد. همانطور که کاربران متحیر از ChatGPT اغلب خروجیهای مزخرف را از ربات چت میپذیرند، زیرا مفهوم یک ربات چت متقاعد کننده ذاتاً چشمگیر است. متخصصان اخلاق هوش مصنوعی هشدار میدهند که روکش هوش خودکار برای توزیع رفاه منجر به ساده لوحی مشابهی میشود.
بیانیهی رسمی دولت اردن به دیده بان حقوق بشر در دفاع از فناوری زیربنایی تکفل مثال کاملی را ارائه میدهد: «روش شناسی این برنامه، خانوارهای فقیر را به ۱۰ لایه طبقهبندی میکند، از بیشترین فقر تا کمترین فقر، سپس هر لایه شامل ۱۰۰ لایهی فرعی با استفاده از تجزیه و تحلیل آماری است. بنابراین، منجر به ۱۰۰۰ قرائت میشود که بین وضعیت و نیازهای رفاهی منحصر به فرد خانوادهها متمایز میشود».
وقتی دیده بان حقوق بشر از موسسه تحقیقاتی هوش مصنوعی توزیع شده خواست تا این اظهارات را بررسی کند، الکس هانا، مدیر تحقیقات گروه، نتیجه گرفت: «اینها کلمات فنی هستند که به طور کلی هیچ معنایی ندارند». نایلنگ موروسی، محقق ارشد DAIR، افزود: «من فکر میکنم آنها از این زبان برای مبهمسازی فنی استفاده میکنند».
همانطور که تقریباً در مورد همه سیستمهای تصمیمگیری خودکار مسأله وجود دارد، افرادی که برنامهی تکفل را طراحی کردهاند و بر عادلانه بودن و عملکرد درست آن اصرار دارند، اجازه نمیدهند کسی به لایههای زیرین آن نگاه کند. اگرچه معروف است که تکفل از ۵۷ معیار مختلف برای رتبهبندی فقر استفاده میکند، اما این گزارش خاطرنشان میکند که صندوق کمکهای ملی اردن که این سیستم را مدیریت میکند، «از افشای فهرست کامل شاخصها و وزنهای خاص تعیینشده خودداری کرد و گفت که این شاخصها فقط برای اهداف داخلی بوده و بهطور مداوم در حال تغییر هستند».
در حالی که دیدگاههای فانتزی مانند دربارهی هوش مصنوعی بر ترسهای عمومی پیرامون تصمیمگیری خودکار غالب شده است، سایر فناوران معتقدند جامعهی مدنی باید بر آسیبهای واقعی و فعلی ناشی از سیستمهایی مانند تکفل تمرکز کند، نه سناریوهای کابوسآمیز برگرفته از داستانهای علمی تخیلی.
تا زمانی که عملکرد برنامهی تکفل و امثال آن جزو اسرار دولتی و شرکتی باقی بماند، میزان آن خطرات ناشناخته باقی خواهد ماند.