فیسبوک خشونت علیه مسلمانان میانمار را ترویج می‌کنند

فیسبوک خشونت علیه مسلمانان میانمار را ترویج می‌کنند
تاریخ انتشار : ۰۷ اسفند ۱۴۰۲

عفو بین‌الملل گفت متا بایستی غرامت بی‌عملی خود را پرداخت کند.

به گزارش گرداب، عفو بین‌الملل در گزارشی اعلام کرد که الگوریتم‌های خطرناک متا مالک فیسبوک و دنبال کردن منفعت شخصی این شرکت به طور قابل توجهی به جنایاتی که ارتش میانمار علیه مردم روهینگیا در سال ۲۰۱۷ مرتکب شد، کمک کرد.

در همین رابطه بخوانید:

اخبار جعلی که جان مسلمانان را به خطر می‌اندازد

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


خشونت اجتماعی

گزارش جدید جزئیاتی را نشان می‌دهد که متا چگونه می‌دانست یا باید می‌دانست که سیستم‌های الگوریتمی فیسبوک در حال گسترش محتوای مخرب ضد روهینگیا در میانمار هستند، اما این شرکت همچنان نتوانسته موفق عمل کند.

در سال ۲۰۱۷، هزاران نفر از مردم روهینگیا به عنوان بخشی از کمپین پاکسازی قومیتی نیرو‌های امنیتی میانمار، کشته، شکنجه و آواره شدند و مورد تجاوز قرار گرفتند. اگنس کالامار (Agnes Callamard)، دبیر کل عفو بین‌الملل گفت: «در ماه‌ها و سال‌های منتهی به جنایات، الگوریتم‌های فیسبوک طوفانی از نفرت علیه مردم روهینگیا را تشدید می‌کرد که به خشونت در دنیای واقعی کمک کرد».

او همچنین اضافه کرد: «در حالی که ارتش میانمار در حال ارتکاب جنایات علیه بشریت علیه مردم روهینگیا بود، متا از اتاق پژواک نفرت ایجاد شده توسط الگوریتم‌های مارپیچ نفرت خود سود می‌برد. متا باید پاسخگو باشد. این شرکت اکنون مسئولیت دارد تا به همه کسانی که از عواقب خشونت‌آمیز اقداماتش زیان دیده‌اند، غرامت بدهد».

سویدالله (Sawyeddollah)، یک پناهجوی ۲۱ ساله روهینگیا، به عفو بین‌الملل گفت: «من چیز‌های وحشتناک زیادی در فیسبوک دیدم؛ و من فقط فکر کردم که افرادی که این پست را ارسال کردند بد بودند. سپس متوجه شدم که فقط این افراد نیستند – پوستر‌ها و بنر‌ها – بلکه فیسبوک نیز مسئول است. فیسبوک با رسیدگی نکردن به پلتفرم خودش به آن‌ها کمک می‌کند».

روهینگیا یک اقلیت قومی عمدتاً مسلمان هستند که در شمال ایالت راخین میانمار مستقر هستند. در آگوست ۲۰۱۷، بیش از ۷۰۰ هزار نفر از مردم روهینگیا از راخین گریختند، زمانی که نیرو‌های امنیتی میانمار قتل گسترده و هدفمند، تجاوز و سوزاندن خانه‌ها را آغاز کردند. این خشونت به دنبال چندین دهه تبعیض، آزار و اذیت و ظلم تحت حمایت دولت علیه روهینگیا بود که به آپارتاید تبدیل شد.

متا از سیستم‌های الگوریتمی مبتنی بر تعامل برای تقویت سرویس خبری، رتبه‌بندی، توصیه‌ها و ویژگی‌های گروه‌بندی فیسبوک استفاده می‌کند و آنچه را که در پلتفرم دیده می‌شود شکل می‌دهد. سود متا زمانی به دست می‌آید که کاربران فیسبوک با فروش تبلیغات هدفمند بیشتر روی پلتفرم بمانند. نمایش محتوای تحریک‌آمیز – از جمله محتوایی که از نفرت حمایت می‌کند، تحریک به خشونت، خصومت و تبعیض را تشکیل می‌دهد – روشی مؤثر برای نگه داشتن مردم برای مدت طولانی‌تر روی پلتفرم است. به این ترتیب، ترویج و تقویت این نوع محتوا کلید مدل کسب و کار مبتنی بر نظارت فیسبوک است.

در ماه‌ها و سال‌های قبل از سرکوب، فیسبوک در میانمار تبدیل به اتاق پژواک محتوای ضد روهینگیا شده بود. عوامل مرتبط با ارتش میانمار و گروه‌های ملی‌گرای بودایی رادیکال، پلتفرم را با محتوای ضد مسلمانان پر کردند و اطلاعات نادرستی منتشر کردند که ادعا می‌شد مسلمانان قریب‌الوقوع پیروز خواهند شد و مردم روهینگیا را به عنوان متجاوز خواندند.

در یک پست که بیش از هزار بار به اشتراک گذاشته شد، یک مدافع حقوق بشر مسلمان به تصویر کشیده شد و به عنوان خائن ملی توصیف شد. نظراتی که روی این پست گذاشته شده شامل پیام‌های تهدیدآمیز و نژادپرستانه‌ای مانند پیام زیر بود:

«او مسلمان است. مسلمانان سگ هستند و باید بمیرند، پس او را زنده نگذارید. کل نژاد او را از بین ببرید. زمان در حال گذر است».

محتوای تحریک‌کننده خشونت و تبعیض به بالاترین سطح رهبری نظامی و غیرنظامی میانمار رسید. ژنرال ارشد مین آونگ هلاینگ (Min Aung Hlaing)، رهبر ارتش میانمار، در سال ۲۰۱۷ در صفحه فیسبوک خود منتشر کرد: «ما علنا اعلام می‌کنیم که کشور ما هیچ رقابتی با روهینگیا ندارد». او در فوریه ۲۰۲۱ با یک کودتا قدرت را به دست گرفته بود.

در ژوئیه ۲۰۲۲، دیوان بین‌المللی دادگستری (ICJ) حکم داد که صلاحیت رسیدگی به پرونده‌ای علیه دولت میانمار زیر نظر انجمن نسل‌کشی بر اساس رفتار میانمار با روهینگیا‌ها را دارد. عفو بین‌الملل از این گام حیاتی در جهت پاسخگویی به دولت میانمار استقبال می‌کند و همچنان خواستار محاکمه اعضای ارشد ارتش میانمار به دلیل نقش داشتن در جنایات علیه روهینگیا است.

در سال ۲۰۱۴، متا تلاش کرد با انتشار یک بسته هشتگ برای کاربران فیسبوک در پاسخ به محتوایی که از خشونت یا تبعیض حمایت می‌کرد، از یک ابتکار ضد نفرت به رهبری جامعه مدنی به نام Panzagar حمایت کند. هشتگ‌ها حاوی پیام‌هایی مانند قبل از اشتراک‌گذاری فکر کن و علت خشونت نباش بود.

با این حال، فعالان به زودی متوجه شدند که هشتگ‌ها عواقب ناخواسته‌ای دارند. الگوریتم‌های فیسبوک استفاده از این هشتگ‌ها را به عنوان نشانه‌ای از لذت بردن مردم از یک پست تفسیر کردند و شروع به تبلیغ آن کردند. استیکر‌ها به جای کاهش تعداد افرادی که پستی در مورد نفرت را دیدند، در واقع پست‌ها را بیشتر نمایان کردند.

مأموریت کمیته حقیقت‌یاب مستقل بین‌المللی سازمان ملل در میانمار در نهایت به این نتیجه رسید که نقش رسانه‌های اجتماعی در جنایات در کشوری که «فیسبوک اینترنت است» مهم است. محمد شویف (Mohamed Showife)، یکی از فعالان روهینگیا، گفت: «روهینگیایی‌ها فقط رویای این را دارند که مانند سایر مردم در این دنیا زندگی کنند. اما تو، فیسبوک، رویای ما را نابود کردی».

شکست فیسبوک در اقدام

در این گزارش توضیح داده شده است که چگونه متا علی‌رغم مسئولیتی که بر اساس استاندارد‌های بین‌المللی برای انجام این کار دارد، مکرراً نتوانسته بررسی مناسب حقوق بشر را در عملیات خود در میانمار انجام دهد. مطالعات داخلی مربوط به سال ۲۰۱۲ نشان داد که متا می‌دانست که الگوریتم‌هایش می‌توانند به آسیب‌های جدی در دنیای واقعی منجر شوند. در سال ۲۰۱۶، تحقیقات خود متا به وضوح تصدیق کرد که سیستم‌های توصیه ما مشکل افراط‌گرایی را افزایش می‌دهد.

متا بین سال‌های ۲۰۱۲ تا ۲۰۱۷ ارتباطات و بازدید‌های مکرری از سوی فعالان جامعه مدنی محلی دریافت کرد، زمانی که به شرکت هشدار داده شد که خطر مشارکت در خشونت شدید را دارد. در سال ۲۰۱۴، مقامات میانمار حتی به طور موقت فیسبوک را به دلیل نقش این پلتفرم در آغاز خشونت قومی در ماندالی مسدود کردند. با این حال، متا مکرراً به هشدار‌ها توجه نکرد و همچنین به طور مداوم در اجرای سیاست‌های خود در رابطه با نفرت‌پراکنی ناکام ماند.

تحقیقات عفو بین‌الملل شامل تجزیه و تحلیل شواهد جدید از «مقاله‌های فیسبوک» می‌شود – یک منبع اسناد داخلی که توسط فرانسیس هاگن (Frances Haugen) افشاگری شده است.

در یک سند داخلی به تاریخ آگوست ۲۰۱۹، یکی از کارمندان متا نوشت: «ما شواهدی از منابع مختلف داریم مبنی بر این که نفرت‌پراکنی، سخنان سیاسی تفرقه‌انگیز و اطلاعات نادرست در فیسبوک اغلب جوامع در سراسر جهان را تحت تأثیر قرار می‌دهند. ما همچنین شواهد قانع‌کننده‌ای داریم که نشان می‌دهد مکانیزم‌های اصلی محصول ما، مانند ویروسی بودن، توصیه‌ها و بهینه‌سازی برای تعامل، بخش مهمی از شکوفایی این نوع گفتار در پلتفرم هستند. در سال ۲۰۱۶ متا اعلام کرده بود: «سیستم‌های توصیه ما مشکل‌ساز هستند».

متا باید غرامت پرداخت کند

عفو بین‌الملل امروز کمپین جدیدی را راه‌اندازی می‌کند که از پلتفرم‌های شرکت متا خواسته می‌شود تا پاسخگوی خواسته‌های مردم روهینگیا باشد. گروه‌های آوارگان روهینگیا مستقیماً از متا درخواست کرده‌اند تا با تأمین مالی یک پروژه آموزشی یک میلیون دلاری در اردوگاه پناهندگان در کاکس بازار، بنگلادش، برای جبران خسارت همکاری کند. درخواست بودجه تنها ۰.۰۰۲ درصد از سود ۴۶.۷ میلیارد دلاری متا از سال ۲۰۲۱ را نشان می‌دهد. در فوریه ۲۰۲۱، متا درخواست جامعه روهینگیا را رد کرد و اظهار داشت: «فیسبوک مستقیماً در فعالیت‌های بشردوستانه شرکت نمی‌کند».

شوکوتارا (Showkutara)، یک زن و فعال جوان ۲۲ ساله اهل روهینگیا، به عفو بین‌الملل گفت: «فیسبوک باید هزینه کند. اگر این کار را نکنند ما به تمام دادگاه‌های دنیا می‌رویم. ما هرگز در مبارزه خود تسلیم نخواهیم شد».

حداقل سه شکایت فعال برای جبران خسارت از متا وجود دارد. اقدامات حقوقی مدنی علیه این شرکت در دسامبر ۲۰۲۱ در بریتانیا و ایالات متحده تشکیل شد. گروه‌های جوانان پناهنده روهینگیا نیز یک پرونده در سازمان توسعه و همکاری اقتصادی (OECD) علیه متا تشکیل داده‌اند که در حال حاضر توسط این نهاد در حال بررسی است.

اگنس کالامار اعلام کرد: «متا طبق استاندارد‌های بین‌المللی حقوق بشر مسئولیت دارد تا آسیب‌های وحشتناک متحمل شده توسط روهینگیا را که در آن نقش داشته‌اند، برطرف کند. این یافته‌ها باید این هشدار را ایجاد کند که متا در معرض خطر جدی نقض حقوق بشر است، مگر این که تغییرات اساسی در مدل تجاری و الگوریتم‌های خود ایجاد کند».

او اضافه کرد: «اصلاحات فوری و گسترده به سیستم‌های الگوریتمی خود برای جلوگیری از سوءاستفاده و افزایش شفافیت، به شدت مورد نیاز است تا اطمینان حاصل شود که رفتار متا با مردم روهینگیا دیگر تکرار نمی‌شود، به خصوص در مواردی که بحث خشونت قومیتی مطرح است».

کالامار در انتها گفت: «در نهایت، ایالت‌ها اکنون باید با معرفی و اجرای قانون مؤثر برای تقویت مدل‌های تجاری مبتنی بر نظارت در بخش فناوری، به حمایت از حقوق بشر کمک کنند. شرکت‌های بزرگ ثابت کرده‌اند که وقتی چنین سود هنگفتی در خطر است، قادر به انجام این کار نیستند».

در ۲۰ مه ۲۰۲۲، عفو بین‌الملل در مورد اقدامات این شرکت در رابطه با فعالیت‌های تجاری خود در میانمار قبل و در طول قساوت‌های ۲۰۱۷ به متا نوشت. متا پاسخ داد که نمی‌تواند اطلاعات مربوط به دوره منتهی به سال ۲۰۱۷ را ارائه دهد، زیرا این شرکت در حال حاضر مشغول دادرسی در رابطه با امور مرتبط است.

در ۱۴ ژوئن ۲۰۲۲، عفو بین‌الملل دوباره در مورد ادعا‌های مربوطه موجود در این گزارش به متا نوشت و به این شرکت فرصت پاسخگویی داد، اما متا از اظهارنظر خودداری کرد.