سازمانهای جاسوسی بریتانیا در تلاش هستند که قوانین سختگیرانه استفاده از دادهها برای آموزش هوش مصنوعی کاهش داده شود.
به گزارش گرداب، گاردین در گزارشی از این میگوید که سازمانهای اطلاعاتی بریتانیا تلاش میکنند مقررات سختگیرانه هوش مصنوعی را دور بزنند.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
سازمانهای اطلاعاتی GCHQ، MI6 و MI5 پیشنهاد میدهند که نظارتهای شدیدی که آموزش مدلهای هوش مصنوعی با استفاده مجموعه دادههای شخصی انبوه را محدود میکند، تضعیف شوند.
سازمانهای اطلاعاتی بریتانیا در حال لابیگری با دولت هستند تا قوانین نظارتی را در استفاده از هوش مصنوعی تضعیف کنند. آنها استدلال میکنند که این قوانین محدودیتهای سختگیرانهای را بر قابلیت یادگیری مدلهای هوش مصنوعی با انبوهی از دادههای شخصی، تحمیل میکند.
این پیشنهادها، سازمانهای اطلاعاتی GCHQ، MI6 و MI5 را قادر میسازند تا به راحتی توانایی استفاده از انواع خاصی از دادهها را پیدا نمایند. این امر با کاهش محافظتهایی که بر روی حریم شخصی افراد که برای جلوگیری از سوءاستفاده از اطلاعات حساس اعمالشدهاند، صورت میپذیرد. به عبارت دیگر این پیشنهادات باعث افزایش دسترسی سازمانهای اطلاعاتی به دادههای شخصی میشوند، تا در موارد مورد نیاز خود از این دادهها استفاده نمایند.
کارشناسان حریم خصوصی و گروههای آزادی مدنی نگرانی خود را نسبت به این تغییرات که سبب میشود برخی از حفاظتهای قانونی ایجادشده در سال ۲۰۱۶ (پس از افشاهای ادوارد اسنودن (Edward Snowden) درباره نظارت تجاوز آمیز دولت)، به مخاطره افتد را بیان کردهاند.
سازمانهای جاسوسی بریتانیا بهطور فزایندهای از دستگاههای مبتنی بر هوش مصنوعی برای تجزیهوتحلیل حجم عظیم و رو به افزایش دادههایی که در اختیاردارند، استفاده میکنند. به این دلیل، فعالان حریم خصوصی ادعا میکنند که توانمندیهای هوش مصنوعی در حال پیشرفت، نیاز به مقررات قویتری (بهجای ضعیفتر شدن) دارند.
با این حال یک بررسی که کمتر مورد توجه قرار گرفته است نشان میدهد که چگونه سازمانهای اطلاعاتی در جدال برای کاهش قوانین حفاظتی در مورد BPD (مجموعه دادههای انبوه شخصی) هستند.
این مجموعه دادهها، اغلب شامل اطلاعاتی هستند که بخشی از آنها ممکن است حساس باشد. به نظر میرسد که اکثریت مردم به اهمیت امنیت و اطلاعات، علاقهای نشان ندهند.
MI5، MI6 و GCHQ اغلب از BPDهایی استفاده میکنند که از طیف گستردهای از منابع بسته و باز استخراج میشوند. همچنین این نهادها ممکن است این اطلاعات را از طریق روشهای پنهان بهدست آورند.
سازمانهای امنیتی با ادعای کمک این مجموعه دادهها به شناسایی تروریستهای بالقوه و همچنین جاسوسان آینده در تلاش برای آسانتر نمودن دسترسی به BPD میباشند. آنها بر این باور هستند در مواردی از داهها که مردم آنها را حریم خصوصی فرض نمیکنند یا میزان این حرمت برای آنها پایین است، سازمان اجازه داشته باشند تا از این دادهها استفاده نمایند.
تغییرات پیشنهادی به لرد دیوید اندرسون (David Anderson)، وکیل دادگستری ارشد و عضو مجلس اعیان ارائه شده است و وزارت کشور اوایل سال جاری او را مأمور بررسی مستقل تغییرات در قوانین اختیارات تحقیقاتی (Investigatory Powers Act) کرد.
در نتایج خود، لرد آندرسون اظهار داشت که پیشنهادات این سازمانها منجر به حذف تدابیر موجود محافظتی خواهد شد. این تدابیر شامل الزام به تأیید قاضی برای بررسی و نگهداری از مجموعههای دادههای شخصی (BPDs) هستند. پس به جای تایید قاضی، یک روند سریعتر و خود-تایید (self-authorisation) جدید برای مجوزدهی ارائه میشود.
اندرسون بیان کرد که سازمانها سالهاست که از هوش مصنوعی استفاده کردهاند و در حال آموزش مدلهای یادگیری ماشینی (machine learning) با BPD هستند. او گفت که افزایش قابلتوجه در نوع و حجم مجموعه دادهها به این معنی است که ابزارهای یادگیری ماشین برای سازمانهای اطلاعاتی بریتانیا "مفید هستند."
وی اظهار کرد که از نظر این سازمانها، مقررات مربوط به BPD، بهویژه هنگامیکه به دادههای در دسترس عموم مربوط میشود (بهویژه دادههایی که اطلاعات موجود در آنها از نظر مردم حریم خصوصی تلقی نمیشود یا میزان این حرمت از نظر آنها پایین است)، به نسبت سنگین هستند.
سرویسهای اطلاعاتی استدلال کردهاند که این اطلاعات باید در دسته جدیدی از BPD قرار گیرند، که از نظر اندرسون این اطلاعات ممکن است شامل محتوای بسترهای اشتراکگذاری ویدیو، پادکستها، مقالات علمی، اسناد عمومی و اطلاعات شرکتها باشد.
آقای اندرسون به این نتیجه رسید که این قانون باید بهگونهای تغییر کند که برای دسته جدید BPD، مجموعهای از محافظتها و نظارتهای سبکتر ایجاد شود. وی بیان کرد "اثرات مقررات زدایی مربوط به این تغییرات پیشنهادشده، نسبتاً کمتر است."
بااینحال، او بهجای اینکه به افسران اطلاعاتی اجازه دهد بهتنهایی تصمیم بگیرند که کدام BPD در دسته جدید قرار گیرند، توصیه کرد که نظارت وزارتی و قضایی در فرایند درجهبندی حفظ شود.
اندرسون ضمن در نظر گرفتن نحوه استفاده سرویسهای اطلاعاتی از دسته جدید BPD، اذعان داشت که به نظر میرسد "استفاده از دادهها برای اهداف آموزشی، ممکن است عاملی باشد که سبب ایجاد سطح پایینتری از نظارتها شود."
هفته گذشته، در طی یک بحث در مجلس لردها در مورد هوش مصنوعی، آقای اندرسون بیان کرد: "در دنیایی که همه از مجموعه دادههای منبع باز (open-source)، برای آموزش مدلهای زبانی بزرگ استفاده میکنند، سازمانهای اطلاعاتی بهطور منحصربهفردی توسط قوانین فعلی محدودشدهاند."
همکار وی گفت: "من دریافتم که این محدودیتها در برخی از زمینههای خاص بر روی چابکی سازمانهای اطلاعاتی، همکاری آنها با شرکای تجاری، توانایی جذب و نگهداری دادهشناسها و درنهایت اثربخشی آنها، تأثیر میگذارد."
یک منبع آشنا به پیشنهادات ارائه شده توسط سازمانهای اطلاعاتی اظهار داشت: تمایل سازمانها به استفاده از ابزارهای مبتنی بر هوش مصنوعی، بهویژه برای آموزش مدلهای بزرگ زبانی، "بهطورقطع یک عامل مهم" برای مطرح کردن این پیشنهادها بود. بااینحال، نارضایتی از فرآیندهای اداری زمانبر هنگام استفاده از مجموعه دادههای خاص نیز، عامل محرک دیگری است.
در جریان بررسی اندرسون، سازمانهای حقوق بشر لیبرتی و حریم خصوصی بینالملل از همتایان خواستند تا با هرگونه کاهش محدودیتهای موجود مربوط به BPD مخالفت کنند، زیرا آنها ادعا میکنند که این موضوع در حال حاضر ضعیف، ناکارآمد و غیرقانونی است.
یک وکیل لیبرتی به اندرسون گفت: "نباید ذخیره دادههای افرادی که مورد سوءظن دولت نیستند، بهویژه مجموعه دادههای بزرگی که بر تعداد زیادی از مردم تأثیر میگذارد، آسانتر شود. در این بررسی، باید با هر وسوسهای که توصیه به تغییرات قانونی و کاهش محدودیتها را دارد، بهشدت مقاومت شود."
هر دو سازمان استدلال کردند که مخالفت آنها با یافتههایی که در اوایل سال جاری توسط یک دادگاه نظارت تخصصی ارائهشده بود، تأییدشده است. این دادگاه حکم داد که MI5 با پردازش غیرقانونی حجم زیادی از دادهها در دستگاههایی که الزامات قانونی را نقض کردهاند، مرتکب "تخلفات جدی" شده است.
ایان براون (Ian Brown)، یک کارشناس برجسته حریم خصوصی و نظارت، در پاسخ به بررسی اندرسون، در وبسایت خود نوشت که: "ناامیدی دادهشناسها از اینکه امکان بازی با همه اسباببازیهای جدید و شگفتانگیزشان را ندارند، دلیل خوبی برای تضعیف حفاظت از حقوق اساسی نیست."
وی افزود: "با توجه به پیشرفتهای سریع در فنون یادگیری ماشین در دهه گذشته، مسئله نظارت بر کار آنها و بهویژه تصمیمگیری برای اینکه کدام مجموعه داده میتواند در گروه "کم یا بدون انتظار حریم خصوصی " گنجانده شود، برای مقامات اطلاعاتی و قضاتی دشوار میشود."
به گفته یک منبع Whitehall، اکنون دولت در حال بررسی توصیههای اندرسون است و پاسخ خود را اواخر امسال منتشر خواهد کرد.