چگونه الگوریتم‌های شبکه‌های اجتماعی به سانسور کمک می‌کنند؟

چگونه الگوریتم‌های شبکه‌های اجتماعی به سانسور کمک می‌کنند؟
تاریخ انتشار : ۱۸ مهر ۱۴۰۳

سانسور الگوریتمی منجر به محدودیت پخش اطلاعات و سرکوب نظرات مخالف می‌شود.

به گزارش گرداب، در یک دهه اخیر، جهان با سرعت زیادی به سمت دیجیتالی شدن پیش می‌رود. امروزه بحث‌ها و گفتگو‌های زیادی در فضای مجازی صورت می‌گیرد. پلتفرم‌ها به عنوان واسطه‌ای بین افراد، سازمان‌ها، شرکت‌ها و دولت‌ها مطرح شده‌اند. این بستر‌های اجتماعی اکنون در سرتاسر دنیا نقشی کلید در ارتباطات ایفا می‌کنند. از طرفی تبدیل شدن رسانه‌های اجتماعی به منبع اصلی اخبار و انتشار اطلاعات، نگرانی‌هایی را درباره خطر دستکاری و کنترل روایت‌ها از طریق سازوکار‌های الگوریتمی ایجاد کرده است.

سانسور الگوریتمی چیست؟

محتوایی که کاربران در شبکه‌های اجتماعی با آن روبرو می‌شوند تنها بر اساس انتخاب شخصی‌شان نیست، بلکه الگوریتم‌ها و فناوری هوش مصنوعی در تعیین محتوای مصرفی کاربران نقش عمده را دارد. پلتفرم‌های اجتماعی از مجموعه‌ای از الگوریتم‌ها برای تنظیم و مدیریت محتوای مورد استفاده کاربران استفاده می‌کنند. این الگوریتم‌ها بر اساس رفتار کاربر، الگو‌های تعامل و سیاست‌های پلتفرم، انواع خاصی از محتوا را اولویت‌بندی کرده و به کاربران پیشنهاد می‌دهند.

مفهوم سانسور الگوریتمی (Algorithmic Censorship) به استفاده از الگوریتم‌ها و فرآیند‌های خودکار توسط پلتفرم‌ها و ناظران محتوای آنلاین برای کنترل، فیلتر کردن و محدود کردن انتشار اطلاعات در اینترنت اشاره دارد. سانسور الگوریتمی منجر به چالش‌هایی مانند محدودیت در دسترسی به اطلاعات و ایجاد تأثیرات منفی بر گفتگو‌های عمومی بین مردم در دنیا می‌شود. در واقع الگوریتم‌ها کاری می‌کنند که محتوای نامطلوب برای مدیران شبکه‌های اجتماعی به شکلی خودکار نادیده گرفته شود. کاهش بازدیدها، کاهش ضریب پخش محتوا و قفل شدن حساب کاربران به صورت نامحسوس (Shadow ban) از جمله راه‌هایی هستند که الگوریتم‌ها از طریق آن سانسور را انجام می‌دهند.

در عصر ارتباطات دیجیتال، پلتفرم‌های رسانه‌های اجتماعی به ابزار‌هایی قدرتمند برای تسهیل ارتباطات آنلاین جهانی و ترویج دیدگاه‌های متنوع تبدیل شده‌اند. بااین‌حال نگرانی‌هایی در رابطه با سوگیری در الگوریتم‌های به‌کاررفته توسط این پلتفرم‌ها، به‌ویژه در رابطه با جنگ بین رژیم صهیونیستی و فلسطین ایجاد شده است.

سانسور هوشمند در فیسبوک، اینستاگرام و ایکس

در جریان تهاجم اخیر رژیم صهیونیستی به مردم فلسطین، شرکت‌های بزرگی مانند متا (مالک فیسبوک و اینستاگرام) و ایکس (توییتر) اقداماتی نظیر حذف پست‌ها، مسدود کردن حساب‌ها و کاهش دسترسی به محتوای مرتبط با فلسطین انجام داده‌اند.

در بحبوحه درگیری بین مقاومت و رژیم صهیونیستی که از ۷ اکتبر ۲۰۲۳ آغاز شد، سیاست‌ها و اقدامات متا موجی از سانسور شدید را در رسانه‌های اجتماعی دنبال کرد. متا با آغاز جنگ اقداماتی در جهت سانسور محتوا و ممنوعیت حمایت کاربران از گروه مقاومت حماس انجام داد. کاربران شکایت کرده‌اند که متا با کاهش دسترسی به پست‌هایشان، صدا‌های طرفدار فلسطین را سرکوب می‌کند، حتی اگر قوانین پلتفرم را نقض نکنند. همچنین، گزارش‌هایی مبنی بر سانسور سیستماتیک محتوای فلسطینیان در پلتفرم‌های متا وجود دارد.

متا ادعا می‌کند که بحث‌های اجتماعی و سیاسی، گزارش‌های خبری، بحث‌های حقوق بشر و بحث‌های علمی یا بی‌طرف را مجاز می‌داند، اما برخلاف این ادعا‌ها این شرکت حماس را به عنوان یک «سازمان خطرناک» معرفی و استفاده از نام حماس در پلتفرم‌های خود را ممنوع کرده است و محتوایی که این گروه را تبلیغ یا از آن حمایت کند را حذف می‌کند. در سه روز اول این جنگ، متا از حذف ۷۹۵۰۰۰ پست به زبان‌های عربی و عبری در پلتفرم‌های خود خبر داد. همچنین هشتگ‌های خاصی از جمله #طوفان_الأقصى (سیل الاقصی) را در اینستاگرام ممنوع کرد.

از اکتبر تا نوامبر ۲۰۲۳ دیده‌بان حقوق بشر از حذف ۱۰۵۰ پست اینستاگرام و فیسبوک که توسط فلسطینی‌ها و حامیان آنها ارسال شده بود، خبر داد. این موارد مستند شامل محتوایی است که بیش از ۶۰ کشور در سراسر جهان و عمدتاً به زبان انگلیسی از فلسطین حمایت کرده بودند. شاید این بزرگترین موج سرکوب محتوای مربوط به فلسطین تا به امروز باشد، اما متا سابقه‌ای کاملاً مستند از سرکوب گسترده محتوای مربوط به فلسطین در پرونده خود دارد. متا سال‌هاست که به دستکاری کردن محتوای شبکه‌های اجتماعی اعتراف کرده و ادعا کرده که به آن رسیدگی خواهد کرد.
بااین‌حال به اعتراف دیده‌بان حقوق بشر متا به وظایف خود در زمینه حقوق بشر عمل نمی‌کند. این نهاد غیردولتی مستقر در نیویورک نوشت: «متا با سانسور محتوای فلسطینیان عملاً فرصت آنها را برای آگاه کردن جهان از آنچه در غزه می‌گذرد از بین می‌برد».

الگو‌های کلیدی سانسور

دیده‌بان حقوق بشر چهار الگوی کلیدی از سانسور در بستر‌های اجتماعی متا را شناسایی کرد:

۱. حذف پست‌ها، استوری‌ها و نظرات

۲. تعلیق یا غیرفعال کردن دائمی حساب‌ها

۳. محدودیت فعالیت در شبکه‌های اجتماعی (مانند محدودیت در لایک کردن، نظر دادن، اشتراک‌گذاری و ارسال مجدد استوری‌ها) از ۲۴ ساعت تا سه ماه.

۴. محدودیت در استفاده از برخی ویژگی‌های اینستاگرام و فیس‌بوک نظیر پخش زنده، کسب درآمد و...

بعد از متا، شرکت ایکس با مدیریت ایلان ماسک که فضایی برای تعامل و گفتگو‌ها در سطح بین‌المللی است در سرکوب صدای فلسطینیان نقش به‌سزایی داشته. یکی از کاربران فعال ایکس به نام سارا احمد در این باره نوشت: «توییت‌های من درباره غزه به‌طور مداوم توسط الگوریتم‌های این پلتفرم علامت‌گذاری و حذف می‌شوند، حتی اگر از دستورالعمل‌ها پیروی کنم. من مشتاق افزایش آگاهی در مورد غزه هستم، اما احساس می‌کنم صدایم در حال خاموش شدن است. توییت‌های من که شامل مقالات خبری، روایت‌های شخصی و فراخوان‌های اقدام است، دائماً توسط الگوریتم‌ها هدف قرار می‌گیرند.»

ولید جاد، رئیس سابق اتاق فناوری اطلاعات و ارتباطات مصر، به دیلی‌نیوز مصر گفت: «الگوریتم‌های رسانه‌های اجتماعی بر اساس پایگاه‌های داده یا فهرست‌های حاوی کلمات از پیش تعیین شده عمل می‌کنند.» او توضیح داد که الگوریتم‌ها به طور خودکار پست‌های حاوی این کلمات را حذف می‌کنند.

او همچنین گفت که پلتفرم‌ها به طور مداوم فهرست کلمات کلیدی خود را به‌روزرسانی می‌کنند، به ویژه در طول رویداد‌هایی مانند درگیری غزه تا کارایی الگوریتم را افزایش دهند.
در همین رابطه ولید حجاج کارشناس فناوری اطلاعات گفت افراد می‌توانند برای مقابله با الگوریتم‌ها با استفاده از کلمات جایگزین یا ارائه توضیحات مفصل برای انتقال پیام خود از سیستم پیشی بگیرند.

او اظهار کرد: «هدف ایجاد تأخیر در توانایی الگوریتم برای شناسایی و اقدام علیه پست‌های آنها است و به محتوای آنها شانس بیشتری برای دیده شدن توسط دیگران می‌دهد».


منابع:

 https://www.hrw.org/report/2023/12/21/metas-broken-promises/systemic-censorship-palestine-content-instagram-and

https://www.dailynewsegypt.com/2024/01/16/unveiling-algorithmic-bias-is-social-media-against-gaza/