شکایت ۱.۶ میلیارد دلاری کنیا از متا

شکایت ۱.۶ میلیارد دلاری کنیا از متا
تاریخ انتشار : ۱۷ بهمن ۱۴۰۲

عفو بین‌الملل در پی یک اقدام قانونی علیه متا در دادگاه عالی کنیا اعلام کرد که متا باید شیوه‌های تجاری خود را اصلاح کند.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


عفو بین‌الملل در پی یک اقدام قانونی مهم علیه متا در دادگاه عالی کنیا اعلام کرد که متا باید شیوه‌های تجاری خود را اصلاح کند تا مطمئن شود که الگوریتم‌های فیس‌بوک باعث افزایش نفرت و درگیری‌های قومی نمی‌شود.

این اقدام حقوقی ادعا می‌کند که متا با استفاده از الگوریتمی که محتوای نفرت‌انگیز و خشونت‌آمیز را در فیس‌بوک اولویت‌بندی و توصیه می‌کند، سخنانی را ترویج کرده که منجر به خشونت‌های قومی و قتل‌ها در اتیوپی شده است. درخواست‌کنندگان به دنبال این هستند که الگوریتم‌های فیس‌بوک را از توصیه چنین محتوایی به کاربران فیس‌بوک بازدارند و متا را مجبور به ایجاد صندوق قربانیان ۲۰۰ میلیارد دلاری (۱.۶ میلیارد دلار) کنند. مرسی موتمی (Mercy Mutemi) از Nzili and Sumbi Advocates، با حمایت نهاد غیرانتفاعی عدالت فناوری Foxglove، نماینده درخواست‌کنندگان است. عفو بین‌الملل به شش سازمان حقوق بشری و حقوقی دیگر به عنوان طرف‌های ذی‌نفع در این پرونده می‌پیوندد.

فلاویا موانگویا (Flavia Mwangovya)، معاون مدیر منطقه‌ای شرق آفریقا، هورن و منطقه گریت لیکس گفت: «گسترش محتوای خطرناک در فیس‌بوک در قلب هدف متا برای کسب سود قرار دارد، زیرا سیستم‌های آن برای حفظ مشارکت مردم طراحی شده‌اند و این اقدام قانونی گام مهمی در محاکمه متا برای پاسخگویی به مدل تجاری مضر خود است».

یکی از کارکنان عفو بین‌الملل در منطقه در نتیجه پست‌هایی که در شبکه‌های اجتماعی قرار داد مورد هدف قرار گرفت.

در‌ اتیوپی، مردم برای اخبار و اطلاعات به رسانه‌های اجتماعی متکی هستند. به دلیل نفرت و اطلاعات نادرست در فیس‌بوک، مدافعان حقوق بشر نیز به هدف تهدید و جنایت تبدیل شده‌اند. فیسه‌ها تکل (Fisseha Tekle)، مشاور حقوقی عفو بین‌الملل گفت: «من از نزدیک دیدم که چگونه پویایی فیس‌بوک به فعالیت حقوق بشری من آسیب می‌زند و امیدوارم این پرونده این عدم تعادل را جبران کند».

فیسه‌ها تکل یکی از درخواست‌کنندگانی است که پس از آن که به دلیل کارش در افشای نقض حقوق بشر در‌اتیوپی در معرض جریانی از پست‌های نفرت‌انگیز در فیس‌بوک قرار گرفت، این پرونده را ارائه کرد. او که یک شهروند اتیوپیایی است و اکنون در کنیا زندگی می‌کند، از جان خود می‌ترسد و به دلیل انتقاد و فحاشی که در فیس‌بوک به او می‌شود جرأت نمی‌کند برای دیدن خانواده‌اش به اتیوپی بازگردد.

شکست‌های مرگبار

این شکایت حقوقی نیز توسط آبراهام معرگ (Abrham Meareg)، پسر معرگ آماره (Meareg Amare)، استاد دانشگاه در دانشگاه باهیردار در شمال اتیوپی انجام شد، که هفته‌ها پس از انتشار پست‌های تحریک‌کننده نفرت و خشونت علیه او در فیس‌بوک، در نوامبر ۲۰۲۱ شناسایی و کشته شد. این پرونده ادعا می‌کند که فیس‌بوک تنها هشت روز پس از قتل پروفسور معرگ آماره، پست‌های نفرت‌انگیز را حذف کرد، آن هم بیش از سه هفته پس از این که خانواده‌اش برای اولین بار به شرکت هشدار داده بودند.

به دادگاه اطلاع داده شده است که آبراهام معرگ از امنیت خود می‌ترسد و به دنبال پناهندگی در ایالات متحده است. مادرش که به آدیس آبابا گریخته بود به شدت آسیب دیده و هر شب در خواب پس از مشاهده قتل شوهرش فریاد می‌کشد. خانه این خانواده در باهیر توسط پلیس منطقه تصرف شد.

پست‌های مضری که معرگ آماره و فیسه‌ها تکل را هدف قرار می‌دهند، موارد مجزایی نبودند. این اقدام قانونی ادعا می‌کند که فیس‌بوک مملو از پست‌های نفرت‌انگیز، تحریک‌آمیز و خطرناک در زمینه درگیری اتیوپی است.

متا از سیستم‌های الگوریتمی مبتنی بر تعامل برای تقویت سرویس خبری، رتبه‌بندی، توصیه‌ها و ویژگی‌های گروه‌بندی فیس‌بوک استفاده می‌کند و آن چه را که روی پلتفرم دیده می‌شود شکل می‌دهد. سود متا زمانی به دست می‌آید که کاربران فیس‌بوک تا زمانی که ممکن است با فروش تبلیغات هدفمند بیشتر روی پلتفرم بمانند.

نمایش محتوای تحریک‌آمیز، از جمله محتوایی که از نفرت حمایت می‌کند، تحریک به خشونت، خصومت و تبعیض را تشکیل می‌دهد، روشی مؤثر برای نگه داشتن مردم برای مدت طولانی‌تر روی پلتفرم است. به این ترتیب، ترویج و تقویت این نوع محتوا کلید مدل کسب و کار مبتنی بر نظارت فیس‌بوک است.

مطالعات داخلی مربوط به سال ۲۰۱۲ نشان داد که متا می‌دانست الگوریتم‌هایش می‌توانند به آسیب‌های جدی در دنیای واقعی منجر شوند. در سال ۲۰۱۶، تحقیقات خود متا به وضوح تصدیق کرد که «سیستم‌های توصیه ما به گسترش افراط‌گرایی دامن می‌زند».

در سپتامبر ۲۰۲۲، عفو بین‌الملل اثبات کرد که چگونه الگوریتم‌های متا به طور فعال محتوایی را تقویت و ترویج می‌کنند که خشونت، نفرت و تبعیض علیه مردم روهینگیا در میانمار را تحریک می‌کند و به طور قابل‌توجهی خطر شیوع خشونت‌های جمعی را افزایش می‌دهد.

فلاویا موانگویا (Flavia Mwangovya) گفت: «از اتیوپی تا میانمار، متا می‌دانست یا باید می‌دانست که سیستم‌های الگوریتمی آن به گسترش محتوای مضر کمک می‌کند و منجر به آسیب‌های جدی در دنیای واقعی می‌شود».

متا نشان داده است که قادر به مقابله با این سونامی نفرت نیست. دولت‌ها باید برای مهار مدل‌های تجاری مبتنی بر نظارت شرکت‌های فناوری، قوانین مؤثری را تقویت کرده و به اجرا بگذارند.

استاندارد‌های دوگانه مرگبار

این اقدام حقوقی همچنین ادعا می‌کند که رویکرد متا تحت شرایط بحرانی در آفریقا در مقایسه با سایر نقاط جهان، به ویژه آمریکای شمالی، متفاوت است. این شرکت توانایی اجرای تنظیمات ویژه در الگوریتم‌های خود برای حذف سریع محتوای التهابی در طول یک بحران را دارد. اما با وجود استقرار در سایر نقاط جهان، به گفته درخواست‌کنندگان، هیچ یک از این تنظیمات در طول درگیری در‌اتیوپی انجام نشد و شرکت اطمینان یافت که محتوای مضر گسترش یابد.

اسناد داخلی متا که توسط فرانسیس هاوگن (Frances Haugen)، معروف به فیس‌بوک پیپرز، افشا شده نشان داد که این شرکت ۳۰۰ میلیارد دلاری، ناظر محتوای کافی که به زبان‌های محلی صحبت می‌کنند نیز ندارد. گزارش هیئت نظارت متا همچنین این نگرانی را ایجاد کرد که متا منابع کافی را برای تعدیل محتوا به زبان‌هایی غیر از انگلیسی سرمایه‌گذاری نکرده است.

فلاویا موانگویا (Flavia Mwangovya) می‌گوید: «متا نتوانسته است به اندازه کافی بر روی تعدیل محتوا در جنوب جهان سرمایه‌گذاری کند، به این معنی که گسترش نفرت، خشونت و تبعیض به طور نامتناسبی بر حاشیه‌نشین‌ترین و مظلوم‌ترین جوامع در سراسر جهان و به ویژه در جنوب جهان تأثیر می‌گذارد».