سازمان‌های جاسوسی انگلیس به دنبال دور زدن مقررات هوش مصنوعی

سازمان‌های جاسوسی انگلیس به دنبال دور زدن مقررات هوش مصنوعی
تاریخ انتشار : ۲۴ مرداد ۱۴۰۲

سازمان‌های جاسوسی بریتانیا در تلاش هستند که قوانین سخت‌گیرانه استفاده از داده‌ها برای آموزش هوش مصنوعی کاهش داده شود.

به گزارش گرداب، گاردین در گزارشی از این می‌گوید که سازمان‌های اطلاعاتی بریتانیا تلاش می‌کنند مقررات سخت‌گیرانه هوش مصنوعی را دور بزنند.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


سازمان‌های اطلاعاتی GCHQ، MI6 و MI5 پیشنهاد می‌دهند که نظارت‌های شدیدی که آموزش مدل‌های هوش مصنوعی با استفاده مجموعه داده‌های شخصی انبوه را محدود می‌کند، تضعیف شوند.

سازمان‌های اطلاعاتی بریتانیا در حال لابی‌گری با دولت هستند تا قوانین نظارتی را در استفاده از هوش مصنوعی تضعیف کنند. آن‌ها استدلال می‌کنند که این قوانین محدودیت‌های سخت‌گیرانه‌ای را بر قابلیت یادگیری مدل‌های هوش مصنوعی با انبوهی از داده‌های شخصی، تحمیل می‌کند.

این پیشنهادها، سازمان‌های اطلاعاتی GCHQ، MI6 و MI5 را قادر می‌سازند تا به راحتی توانایی استفاده از انواع خاصی از داده‌ها را پیدا نمایند. این امر با کاهش محافظت‌هایی که بر روی حریم شخصی افراد که برای جلوگیری از سوءاستفاده از اطلاعات حساس اعمال‌شده‌اند، صورت می‌پذیرد. به عبارت دیگر این پیشنهادات باعث افزایش دسترسی سازمان‌های اطلاعاتی به داده‌های شخصی می‌شوند، تا در موارد مورد نیاز خود از این داده‌ها استفاده نمایند.

کارشناسان حریم خصوصی و گروه‌های آزادی مدنی نگرانی خود را نسبت به این تغییرات که سبب می‌شود برخی از حفاظت‌های قانونی ایجادشده در سال ۲۰۱۶ (پس از افشا‌های ادوارد اسنودن (Edward Snowden) درباره نظارت تجاوز آمیز دولت)، به مخاطره افتد را بیان کرده‌اند.

سازمان‌های جاسوسی بریتانیا به‌طور فزاینده‌ای از دستگاه‌های مبتنی بر هوش مصنوعی برای تجزیه‌وتحلیل حجم عظیم و رو به افزایش داده‌هایی که در اختیاردارند، استفاده می‌کنند. به این دلیل، فعالان حریم خصوصی ادعا می‌کنند که توانمندی‌های هوش مصنوعی در حال پیشرفت، نیاز به مقررات قوی‌تری (به‌جای ضعیف‌تر شدن) دارند.

با این حال یک بررسی که کمتر مورد توجه قرار گرفته است نشان می‌دهد که چگونه سازمان‌های اطلاعاتی در جدال برای کاهش قوانین حفاظتی در مورد BPD (مجموعه داده‌های انبوه شخصی) هستند.

این مجموعه داده‌ها، اغلب شامل اطلاعاتی هستند که بخشی از آن‌ها ممکن است حساس باشد. به نظر می‌رسد که اکثریت مردم به اهمیت امنیت و اطلاعات، علاقه‌ای نشان ندهند.

MI5، MI6 و GCHQ اغلب از BPD‌هایی استفاده می‌کنند که از طیف گسترده‌ای از منابع بسته و باز استخراج می‌شوند. همچنین این نهاد‌ها ممکن است این اطلاعات را از طریق روش‌های پنهان به‌دست آورند.

سازمان‌های امنیتی با ادعای کمک این مجموعه داده‌ها به شناسایی تروریست‌های بالقوه و همچنین جاسوسان آینده در تلاش برای آسان‌تر نمودن دسترسی به BPD می‌باشند. آن‌ها بر این باور هستند در مواردی از داه‌ها که مردم آن‌ها را حریم خصوصی فرض نمی‌کنند یا میزان این حرمت برای آن‌ها پایین است، سازمان اجازه داشته باشند تا از این داده‌ها استفاده نمایند.

تغییرات پیشنهادی به لرد دیوید اندرسون (David Anderson)، وکیل دادگستری ارشد و عضو مجلس اعیان ارائه شده است و وزارت کشور اوایل سال جاری او را مأمور بررسی مستقل تغییرات در قوانین اختیارات تحقیقاتی (Investigatory Powers Act) کرد.

در نتایج خود، لرد آندرسون اظهار داشت که پیشنهادات این سازمان‌ها منجر به حذف تدابیر موجود محافظتی خواهد شد. این تدابیر شامل الزام به تأیید قاضی برای بررسی و نگه‌داری از مجموعه‌های داده‌های شخصی (BPDs) هستند. پس به جای تایید قاضی، یک روند سریع‌تر و خود-تایید (self-authorisation) جدید برای مجوزدهی ارائه می‌شود.

اندرسون بیان کرد که سازمان‌ها سال‌هاست که از هوش مصنوعی استفاده کرده‌اند و در حال آموزش مدل‌های یادگیری ماشینی (machine learning) با BPD هستند. او گفت که افزایش قابل‌توجه در نوع و حجم مجموعه داده‌ها به این معنی است که ابزار‌های یادگیری ماشین برای سازمان‌های اطلاعاتی بریتانیا "مفید هستند."

وی اظهار کرد که از نظر این سازمان‌ها، مقررات مربوط به BPD، به‌ویژه هنگامی‌که به داده‌های در دسترس عموم مربوط می‌شود (به‌ویژه داده‌هایی که اطلاعات موجود در آن‌ها از نظر مردم حریم خصوصی تلقی نمی‌شود یا میزان این حرمت از نظر آن‌ها پایین است)، به نسبت سنگین هستند.

سرویس‌های اطلاعاتی استدلال کرده‌اند که این اطلاعات باید در دسته جدیدی از BPD قرار گیرند، که از نظر اندرسون این اطلاعات ممکن است شامل محتوای بستر‌های اشتراک‌گذاری ویدیو، پادکست‌ها، مقالات علمی، اسناد عمومی و اطلاعات شرکت‌ها باشد.

آقای اندرسون به این نتیجه رسید که این قانون باید به‌گونه‌ای تغییر کند که برای دسته جدید BPD، مجموعه‌ای از محافظت‌ها و نظارت‌های سبک‌تر ایجاد شود. وی بیان کرد "اثرات مقررات زدایی مربوط به این تغییرات پیشنهادشده، نسبتاً کمتر است."

بااین‌حال، او به‌جای اینکه به افسران اطلاعاتی اجازه دهد به‌تنهایی تصمیم بگیرند که کدام BPD در دسته جدید قرار گیرند، توصیه کرد که نظارت وزارتی و قضایی در فرایند درجه‌بندی حفظ شود.

اندرسون ضمن در نظر گرفتن نحوه استفاده سرویس‌های اطلاعاتی از دسته جدید BPD، اذعان داشت که به نظر می‌رسد "استفاده از داده‌ها برای اهداف آموزشی، ممکن است عاملی باشد که سبب ایجاد سطح پایین‌تری از نظارت‌ها شود."

هفته گذشته، در طی یک بحث در مجلس لرد‌ها در مورد هوش مصنوعی، آقای اندرسون بیان کرد: "در دنیایی که همه از مجموعه داده‌های منبع باز (open-source)، برای آموزش مدل‌های زبانی بزرگ استفاده می‌کنند، سازمان‌های اطلاعاتی به‌طور منحصربه‌فردی توسط قوانین فعلی محدودشده‌اند."

همکار وی گفت: "من دریافتم که این محدودیت‌ها در برخی از زمینه‌های خاص بر روی چابکی سازمان‌های اطلاعاتی، همکاری آن‌ها با شرکای تجاری، توانایی جذب و نگهداری داده‌شناس‌ها و درنهایت اثربخشی آن‌ها، تأثیر می‌گذارد."

یک منبع آشنا به پیشنهادات ارائه شده توسط سازمان‌های اطلاعاتی اظهار داشت: تمایل سازمان‌ها به استفاده از ابزار‌های مبتنی بر هوش مصنوعی، به‌ویژه برای آموزش مدل‌های بزرگ زبانی، "به‌طورقطع یک عامل مهم" برای مطرح کردن این پیشنهاد‌ها بود. بااین‌حال، نارضایتی از فرآیند‌های اداری زمان‌بر هنگام استفاده از مجموعه داده‌های خاص نیز، عامل محرک دیگری است.

در جریان بررسی اندرسون، سازمان‌های حقوق بشر لیبرتی و حریم خصوصی بین‌الملل از همتایان خواستند تا با هرگونه کاهش محدودیت‌های موجود مربوط به BPD مخالفت کنند، زیرا آن‌ها ادعا می‌کنند که این موضوع در حال حاضر ضعیف، ناکارآمد و غیرقانونی است.

یک وکیل لیبرتی به اندرسون گفت: "نباید ذخیره داده‌های افرادی که مورد سوءظن دولت نیستند، به‌ویژه مجموعه داده‌های بزرگی که بر تعداد زیادی از مردم تأثیر می‌گذارد، آسان‌تر شود. در این بررسی، باید با هر وسوسه‌ای که توصیه به تغییرات قانونی و کاهش محدودیت‌ها را دارد، به‌شدت مقاومت شود."

هر دو سازمان استدلال کردند که مخالفت آن‌ها با یافته‌هایی که در اوایل سال جاری توسط یک دادگاه نظارت تخصصی ارائه‌شده بود، تأییدشده است. این دادگاه حکم داد که MI5 با پردازش غیرقانونی حجم زیادی از داده‌ها در دستگاه‌هایی که الزامات قانونی را نقض کرده‌اند، مرتکب "تخلفات جدی" شده است.

ایان براون (Ian Brown)، یک کارشناس برجسته حریم خصوصی و نظارت، در پاسخ به بررسی اندرسون، در وب‌سایت خود نوشت که: "ناامیدی داده‌شناس‌ها از اینکه امکان بازی با همه اسباب‌بازی‌های جدید و شگفت‌انگیزشان را ندارند، دلیل خوبی برای تضعیف حفاظت از حقوق اساسی نیست."

وی افزود: "با توجه به پیشرفت‌های سریع در فنون یادگیری ماشین در دهه گذشته، مسئله نظارت بر کار آن‌ها و به‌ویژه تصمیم‌گیری برای اینکه کدام مجموعه داده می‌تواند در گروه "کم یا بدون انتظار حریم خصوصی " گنجانده شود، برای مقامات اطلاعاتی و قضاتی دشوار می‌شود."

به گفته یک منبع Whitehall، اکنون دولت در حال بررسی توصیه‌های اندرسون است و پاسخ خود را اواخر امسال منتشر خواهد کرد.