عفو بینالملل در پی یک اقدام قانونی علیه متا در دادگاه عالی کنیا اعلام کرد که متا باید شیوههای تجاری خود را اصلاح کند.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
عفو بینالملل در پی یک اقدام قانونی مهم علیه متا در دادگاه عالی کنیا اعلام کرد که متا باید شیوههای تجاری خود را اصلاح کند تا مطمئن شود که الگوریتمهای فیسبوک باعث افزایش نفرت و درگیریهای قومی نمیشود.
این اقدام حقوقی ادعا میکند که متا با استفاده از الگوریتمی که محتوای نفرتانگیز و خشونتآمیز را در فیسبوک اولویتبندی و توصیه میکند، سخنانی را ترویج کرده که منجر به خشونتهای قومی و قتلها در اتیوپی شده است. درخواستکنندگان به دنبال این هستند که الگوریتمهای فیسبوک را از توصیه چنین محتوایی به کاربران فیسبوک بازدارند و متا را مجبور به ایجاد صندوق قربانیان ۲۰۰ میلیارد دلاری (۱.۶ میلیارد دلار) کنند. مرسی موتمی (Mercy Mutemi) از Nzili and Sumbi Advocates، با حمایت نهاد غیرانتفاعی عدالت فناوری Foxglove، نماینده درخواستکنندگان است. عفو بینالملل به شش سازمان حقوق بشری و حقوقی دیگر به عنوان طرفهای ذینفع در این پرونده میپیوندد.
فلاویا موانگویا (Flavia Mwangovya)، معاون مدیر منطقهای شرق آفریقا، هورن و منطقه گریت لیکس گفت: «گسترش محتوای خطرناک در فیسبوک در قلب هدف متا برای کسب سود قرار دارد، زیرا سیستمهای آن برای حفظ مشارکت مردم طراحی شدهاند و این اقدام قانونی گام مهمی در محاکمه متا برای پاسخگویی به مدل تجاری مضر خود است».
یکی از کارکنان عفو بینالملل در منطقه در نتیجه پستهایی که در شبکههای اجتماعی قرار داد مورد هدف قرار گرفت.
در اتیوپی، مردم برای اخبار و اطلاعات به رسانههای اجتماعی متکی هستند. به دلیل نفرت و اطلاعات نادرست در فیسبوک، مدافعان حقوق بشر نیز به هدف تهدید و جنایت تبدیل شدهاند. فیسهها تکل (Fisseha Tekle)، مشاور حقوقی عفو بینالملل گفت: «من از نزدیک دیدم که چگونه پویایی فیسبوک به فعالیت حقوق بشری من آسیب میزند و امیدوارم این پرونده این عدم تعادل را جبران کند».
فیسهها تکل یکی از درخواستکنندگانی است که پس از آن که به دلیل کارش در افشای نقض حقوق بشر دراتیوپی در معرض جریانی از پستهای نفرتانگیز در فیسبوک قرار گرفت، این پرونده را ارائه کرد. او که یک شهروند اتیوپیایی است و اکنون در کنیا زندگی میکند، از جان خود میترسد و به دلیل انتقاد و فحاشی که در فیسبوک به او میشود جرأت نمیکند برای دیدن خانوادهاش به اتیوپی بازگردد.
شکستهای مرگبار
این شکایت حقوقی نیز توسط آبراهام معرگ (Abrham Meareg)، پسر معرگ آماره (Meareg Amare)، استاد دانشگاه در دانشگاه باهیردار در شمال اتیوپی انجام شد، که هفتهها پس از انتشار پستهای تحریککننده نفرت و خشونت علیه او در فیسبوک، در نوامبر ۲۰۲۱ شناسایی و کشته شد. این پرونده ادعا میکند که فیسبوک تنها هشت روز پس از قتل پروفسور معرگ آماره، پستهای نفرتانگیز را حذف کرد، آن هم بیش از سه هفته پس از این که خانوادهاش برای اولین بار به شرکت هشدار داده بودند.
به دادگاه اطلاع داده شده است که آبراهام معرگ از امنیت خود میترسد و به دنبال پناهندگی در ایالات متحده است. مادرش که به آدیس آبابا گریخته بود به شدت آسیب دیده و هر شب در خواب پس از مشاهده قتل شوهرش فریاد میکشد. خانه این خانواده در باهیر توسط پلیس منطقه تصرف شد.
پستهای مضری که معرگ آماره و فیسهها تکل را هدف قرار میدهند، موارد مجزایی نبودند. این اقدام قانونی ادعا میکند که فیسبوک مملو از پستهای نفرتانگیز، تحریکآمیز و خطرناک در زمینه درگیری اتیوپی است.
متا از سیستمهای الگوریتمی مبتنی بر تعامل برای تقویت سرویس خبری، رتبهبندی، توصیهها و ویژگیهای گروهبندی فیسبوک استفاده میکند و آن چه را که روی پلتفرم دیده میشود شکل میدهد. سود متا زمانی به دست میآید که کاربران فیسبوک تا زمانی که ممکن است با فروش تبلیغات هدفمند بیشتر روی پلتفرم بمانند.
نمایش محتوای تحریکآمیز، از جمله محتوایی که از نفرت حمایت میکند، تحریک به خشونت، خصومت و تبعیض را تشکیل میدهد، روشی مؤثر برای نگه داشتن مردم برای مدت طولانیتر روی پلتفرم است. به این ترتیب، ترویج و تقویت این نوع محتوا کلید مدل کسب و کار مبتنی بر نظارت فیسبوک است.
مطالعات داخلی مربوط به سال ۲۰۱۲ نشان داد که متا میدانست الگوریتمهایش میتوانند به آسیبهای جدی در دنیای واقعی منجر شوند. در سال ۲۰۱۶، تحقیقات خود متا به وضوح تصدیق کرد که «سیستمهای توصیه ما به گسترش افراطگرایی دامن میزند».
در سپتامبر ۲۰۲۲، عفو بینالملل اثبات کرد که چگونه الگوریتمهای متا به طور فعال محتوایی را تقویت و ترویج میکنند که خشونت، نفرت و تبعیض علیه مردم روهینگیا در میانمار را تحریک میکند و به طور قابلتوجهی خطر شیوع خشونتهای جمعی را افزایش میدهد.
فلاویا موانگویا (Flavia Mwangovya) گفت: «از اتیوپی تا میانمار، متا میدانست یا باید میدانست که سیستمهای الگوریتمی آن به گسترش محتوای مضر کمک میکند و منجر به آسیبهای جدی در دنیای واقعی میشود».
متا نشان داده است که قادر به مقابله با این سونامی نفرت نیست. دولتها باید برای مهار مدلهای تجاری مبتنی بر نظارت شرکتهای فناوری، قوانین مؤثری را تقویت کرده و به اجرا بگذارند.
استانداردهای دوگانه مرگبار
این اقدام حقوقی همچنین ادعا میکند که رویکرد متا تحت شرایط بحرانی در آفریقا در مقایسه با سایر نقاط جهان، به ویژه آمریکای شمالی، متفاوت است. این شرکت توانایی اجرای تنظیمات ویژه در الگوریتمهای خود برای حذف سریع محتوای التهابی در طول یک بحران را دارد. اما با وجود استقرار در سایر نقاط جهان، به گفته درخواستکنندگان، هیچ یک از این تنظیمات در طول درگیری دراتیوپی انجام نشد و شرکت اطمینان یافت که محتوای مضر گسترش یابد.
اسناد داخلی متا که توسط فرانسیس هاوگن (Frances Haugen)، معروف به فیسبوک پیپرز، افشا شده نشان داد که این شرکت ۳۰۰ میلیارد دلاری، ناظر محتوای کافی که به زبانهای محلی صحبت میکنند نیز ندارد. گزارش هیئت نظارت متا همچنین این نگرانی را ایجاد کرد که متا منابع کافی را برای تعدیل محتوا به زبانهایی غیر از انگلیسی سرمایهگذاری نکرده است.
فلاویا موانگویا (Flavia Mwangovya) میگوید: «متا نتوانسته است به اندازه کافی بر روی تعدیل محتوا در جنوب جهان سرمایهگذاری کند، به این معنی که گسترش نفرت، خشونت و تبعیض به طور نامتناسبی بر حاشیهنشینترین و مظلومترین جوامع در سراسر جهان و به ویژه در جنوب جهان تأثیر میگذارد».