«بیایید از جامعه‌مان به عنوان بستری برای آزمایش تکنولوژی‌هایی که هنوز مطمئن نیستیم جامعه را تغییر خواهند داد یا خیر، استفاده نکنیم.» این‌ها هشدارهای کارلی کایند، مدیر انستیتوی Ada Lovelace است که بدنه‌ای تحقیقاتی در زمینه هوش مصنوعی در بریتانیا به حساب می‌آید. «بیایید سعی کنیم به برخی از این مشکلات بیندیشیم – آرام حرکت کنیم و چیزها را تعمیر کنیم به جای اینکه سریع باشیم و چیزها را از بین ببریم».
تاریخ انتشار: ۲۱ مهر ۱۳۹۸ - ۱۲:۱۶
کد خبر: ۲۹۰۴۵
به گزارش گرداب، کایند اخیراً سخنران یکی از پنل‌های «پیشگامان دیجیتال» (Digital Frontrunners) بوده است؛ کنفرانسی در کپنهاگ که روی تاثیر هوش مصنوعی و دیگر تکنولوژی‌های نسل بعد روی جامعه متمرکز است.

" شعار دنیای امروز این است: سریع حرکت کن و چیزها را از بین ببر "

«سریع حرکت کن و چیزها را از بین ببر» شعاری است که با ظهور فیسبوک و تسلطش روی اینترنت تجسم یافته و بسیاری از استارتاپ‌های سیلیکون ولی نیز آن را قرض گرفته‌اند: توسعه بده و یک کمینه محصول پذیرفتی را روانه بازار کن، تکرارش کن، از اشتباهات بیاموز و باز هم تکرارش کن. وقتی صحبت درباره یک اپلیکیشن اشتراک‌گذاری تصویر، یک شبکه اجتماعی یا سرویس پیام‌رسان موبایل باشد، این قواعد نسبتاً بی‌ضرر به حساب می‌آیند. اما در ۱۵ سالی که فیسبوک وارد صحنه شده، صنعت تکنولوژی به غولی بسیار متفاوت تبدیل شده است. رخنه‌ اطلاعات در ابعاد کلان حالا تبدیل به اتفاقی تقریباً روزانه تبدیل شده‌، استخراج دیتا در سطح صنعتی،‌ دموکراسی را تهدید می‌کند و هوش مصنوعی در حال نفوذ به تمام جنبه‌های اجتماعی است.

اگرچه فیسبوک شعار «سریع حرکت کن و چیزها را از بین ببر» خود را رسماً پنج سال پیش کنار گذاشت، به نظر می‌رسد ریشه بسیاری از مشکلات تکنولوژیک امروزی به این حقیقت بازمی‌گردد که کمپانی‌ها به حرکت سریع ادامه می‌دهند: «با تمام نیرو به پیش بران و تمام عواقب‌اش به جهنم».

حماقت مصنوعی

هفته گذشته خبری منتشر شد مبنی بر اینکه کنگره آمریگا در حال تحقیق روی این است که تکنولوژی تشخیص چهره چطور توسط ارتش آمریکا و دیگر کشورها مورد استفاده قرار می‌گیرد، با اشاره به این نکته که تکنولوژی مورد اشاره هنوز به اندازه کافی دقیق نیست.

در نامه‌ کنگره آمده است:
«مزایای عملیاتی تکنولوژی تشخیص چهره برای رزمندگان نویدبخش است. با این همه، اتکای بیش از حد روی این تکنولوژی نوظهور می‌تواند عواقبی هم در پی داشته باشد؛ مثلاً اگر اسکن‌های چهره معیوب یا غیردقیق به هدف‌گیری سهوی غیرنظامی‌ها یا به خطر افتادن پیش‌نیازهای یک ماموریت منجر شود».

" مشکل گسترده‌تر این است که هوش مصنوعی هنوز به اندازه کافی خوب یا قابل اعتماد نیست "

در بخشی از این نامه هم خاطر نشان شده که «نرخ دقت در تصاویری که به سوژه‌های سیاهپوست یا مونث تعلق دارند به شکل مداوم پایین‌تر از سوژه‌های سفیدپوست و مذکر بوده است».

درحالی که بی‌شمار مثال دیگر از این وجود دارد که هوش مصنوعی چه راه طویلی باید بپیماید تا احتمال خطا در الگوریتم‌ها برطرف شود، مشکل گسترده‌تر این است که هوش مصنوعی هنوز به اندازه کافی خوب یا قابل اعتماد نیست.

«هرکسی می‌خواهد روی لبه تکنولوژی باشد – از دانشگاه‎ها گرفته تا کمپانی‌ها و دولت ها». دکتر کریستین آر. توریسان، محققی در زمینه هوش مصنوعی و موسس انستیتوی هوش ماشینی ایسلند، در همان پنل کارلی کایند، می‌گوید: «و آنها فکر می‌کنند هوش مصنوعی دستاورد بزرگ بعدی است. ولی ما در واقع در عصر حماقت مصنوعی به سر می‌بریم».

توریسان یکی از پیشگامان حوزه ایست که به عنوان «هوش عمومی مصنوعی» یا «Artificial General Intelligence» شناخته می‌شود و قرار است با ادغام سیستم‌هایی جداگانه، یک هوش مصنوعی پیچیده‌تر با رفتارهای انسانی‌تر بسازد؛ رفتارهایی مانند خودآموزی، به کارگیری منطق و برنامه‌ریزی. بسته به اینکه از چه کسی بپرسید، هوش عمومی مصنوعی تا ۵ سال دیگر از راه خواهد رسید یا هنوز مسیری طولانی در پیش دارد یا هیچوقت عملی نخواهد شد. توریسان اما ظاهراً باور دارد که هوش عمومی مصنوعی یک روز امکان‌پذیر خواهد شد. مطمئن نیست این اتفاق چه روزی می‌افتد، اما از این مطمئن است که ماشین‌های امروزی به آن اندازه‌ای که برخی فکر می‌کنند هوشمند نیستند.

" به ازای تمام اخبار مثبتی که درباره پیروزی هوش مصنوعی بر انسان‌ها می‌خوانیم، بی‌شمار مثال از شکست خوردن آن وجود دارد "

او می‌گوید: «وقتی درباره هوش مصنوعی صحبت می‌کنید، دائماً از کلمه "درک کردن" استفاده می‌کنید و مردم وقتی قبلاً درباره هوش مصنوعی صحبت می‌کردند، "درک کردن" را در علامت گفتاورد قرار می‌دادند. در نهایت موضوع به این بازمی‌گردد که این ماشین‌ها واقعاً چیزی را درک نمی‎‌کنند؛ مشکل اینجاست». به ازای تمام اخبار مثبتی که درباره پیروزی هوش مصنوعی بر انسان‌ها در بازی پوکر، در AlphaGo و در بازی Honor of Kings می‌خوانیم، بی‌شمار مثال از شکست خوردن هوش مصنوعی وجود دارد. بنابر اکثر گزارش‌ها، اتومبیل‌های بدون راننده و خودران به دوران طلایی خود نزدیک می‌شوند، اما شواهد دیگر از این حکایت دارند که هنوز موانعی وجود دارد که پیش از رها کردن هوش مصنوعی به حال خودش، باید بر آن‌ها فائق آمد.

برای مثال اخیراً در اخبار خواندیم که رگولاتوری‌ها در حال تحقیق روی قابلیت Smart Summon هستند که تسلاً اخیراً به اتومبیل‌های خود آورد؛ قابلیتی که به رانندگان اجازه می‌دهد اتومبیل پارک شده در پارکینگ را به صورت از راه دور فرا بخوانند. به محض عرضه رسمی این قابلیت طی هفته گذشته، شاهد تصاویری در فضای مجازی بودیم که تصادف‌های ناشی از این قابلیت و به صورت کلی‌تر، وضعیت کمیک به وجود آمده را نمایش می‌دادند.

اینطور نیست که بخواهیم پیشرفت‌های عظیم تولیدکنندگان اتومبیل‌های خودران را نادیده بگیریم، اما این موضوع نشان می‌دهد که نبرد جان‌فرسا بر سر آوردن اتومبیل‌های خودران به بازار، می‌تواند گاهی به تولید محصولاتی ناقص منجر شود که احتمالاً برای استفاده عمومی آماده نیستند.

تقاطع‌ها

تنش فزاینده -میان مصرف‌کنندگان، سازمان‌ها، دولت‌ها و آکادمی‌ها- پیرامون تأثیر تکنولوژی بر جامعه مشهود است. در حالی که صنعت تکنولوژی، ابداعات و سرعت را بیشتر از تست‌های تکراری ارج می‌نهد، این خطر وجود دارد که شرایط از کنترل خارج شود. ماجراجویی برای «اولین بودن» یا برای عقد قراردادی سودمند و خوشحال نگه داشتن سهام‌داران، بیش از حد اغوا کننده است.

" مایکروسافت و آمازون برای قرارداد ۱۰ میلیارد دلاری تامین هوش مصنوعی و سرویس‌های ابری پنتاگون رقابت می کنند "

تمام کمپانی‌های بزرگ، از فیسبوک، آمازون و گوگل گرفته تا اپل، مایکروسافت و اوبر، همگی در چندین جبهه تجاری مشغول رقابت هستند و هوش مصنوعی هم معمولاً اصلی‌ترین تمرکز است. تا به امروز چندین تلاش جمعی برای جمع‌آوری بهترین استعدادهای هوش مصنوعی را شاهد بوده‌ایم، چه از طریق خرید استارتاپ‌ها و چه خیلی ساده با استخدام بهترین مغزهای بهترین دانشگاه‌ها. و بعد مشکل عقد قرارداد با مشتریانی شناخته شده مطرح می‌شود که پول فراوان برای خرج کردن دارند – برای مثال مایکروسافت و آمازون هم‌اکنون در حال رقابت برای قرارداد ۱۰ میلیارد دلاری تامین هوش مصنوعی و سرویس‌های ابری پنتاگون هستند.

در میان تمام این جریانات، شرکت‌های تکنولوژی به خاطر آمادگی سرویس‌های تشخیص چهره خود، با فشار مضاعف از سوی دولت و مراجعه قانونی روبرو شده‌اند. در ماه ژانویه امسال، اتحادیه‌ای متشکل از بیش از ۸۵ گروه وکالت، در نامه‌ای سرگشاده، گوگل، مایکروسافت و آمازون را به توقف فروش نرم‌افزار تشخیص چهره‌شان به مراجع قانونی ترغیب کردند – قبل از اینکه دیر شود.

«کمپانی‌ها نمی‌توانند همچنان تظاهر کنند که رویکرد "خراب کن بعد بساز" جواب می‌دهد». نیکول اوزر، مدیر واحد تکنولوژی و آزادی‌های مدنی در اتحادیه آزادی‌های مدنی آمریکایی کالیفرنیا ادامه می‌دهد: «تاریخ مشخصاً به ما آموخته که دولت از تکنولوژی‌هایی مانند تشخیص چهره سوء استفاده خواهد کرد تا جوامع رنگین‌پوست، اقلیت‌های مذهبی و مهاجران را هدف قرار دهد. با تشخیص چهره، ما بر سر یک تقاطع هستیم و تصمیاتی که این کمپانی‌ها به آن‌ها دست خواهند زد، تعیین می‌کند که نسل بعد باید به خاطر شرکت در این تظاهرات از سیستم پایش دولتی بترسد یا خیلی ساده زندگی‌اش را بکند.»

سپس در ماه آپریل، چند ده محقق هوش مصنوعی که در حوزه تکنولوژی و آکادمیک فعالیت دارند، به صورت خاص آمازون را مخاطب قرار دارند و از آن خواستند که فروش نرم‌افزار تشخیص چهره Rekognition را به مراجع قانونی متوقف کند. این محققین عقیده دارند مشکل اصلی اینجاست که هیچ قانون‌گذاری و کنترلی بر چگونگی استفاده از این تکنولوژی وجود ندارد.

" آمازون به صورت رسمی تایید کرده که به ارائه تکنولوژی تشخیص چهره خود به هر دولت فدرالی ادامه خواهد داد "

در بیانیه آن‌ها آمده بود: «از آمازون می‌خواهیم فروش Rekognition را به مراجع قانونی متوقف کند، چرا که هیچ قانون و حفاظی برای جلوگیری از سوء استفاده وجود ندارد. هیچ قانون یا استاندارد معینی وجود ندارد که اطمینان حاصل کند Rekognition به شکلی مورد استفاده قرار خواهد گرفت که آزادی‌های مدنی را نقض نکند.»

با این همه آمازون بعداً به صورت رسمی تایید کرد که به ارائه تکنولوژی تشخیص چهره خود به هر دولت فدرالی ادامه خواهد داد – تا زمانی که این کار قانونی باشد.

این مباحثات تنها محدود به ایالات متحده نیستند. این مشکلی جهانی است که کشورها و کمپانی‌های مختلفی باید با آن سر و کله بزنند. در ماه آگوست، ایستگاه قطار کینگز کراس در لندن به خاطر استفاده از تکنولوژی تشخیص چهره در دوربین‌های امنیتی CCTV اش خبرساز شد و سوالاتی را نه صرفاً از منظر اخلاقی، بلکه از نظر قانون‌مداری برانگیخت. در گزارشی دیگر نیز متوجه شدیم که پلیس محلی تصویر ۷ نفر را به سیستم تشخیص چهره کینگز کراس سپرده بود.

تمام این مثال‌ها از آن جهت به کار می‌روند که اثبات کنند توسعه هوش مصنوعی آنقدر به سرعت پیش می‌رود که از توانایی جامعه در تعیین موازین اخلاقی و ایجاد تعادل پیشی گرفته است.

عقب راندن

تکنولوژی دیجیتال معمولاً سریع‌تر از آن پیش رفته که رگولاتوری‌ها و ناظران بیرونی قادر به همگام ماندن با آن بوده باشند، ولی حالا ما شاهد تلاش‌هایی در راستای عقب راندن از سوی رگولاتوری‌ها هستیم – خصوصاً در زمینه حفاظت از حریم اطلاعاتی. قانونی حریم مصرف‌کنندگان کالیفرنیا (CCPA) که قرار است از نخستین روز سال ۲۰۲۰ عملی شود، طراحی شده تا حقوق مصرف‌کنندگان از نظر حریم شخصی را در سراسر این ایالت بهبود ببخشد و اروپا هم مشغول سبک-سنگین کردن قانون حریم الکترونیکی (ePrivacy) است که به حقوق افراد و حریم شخصی آن‌ها در ارتباطات الکترونیکی احترام می‌گذارد.

اما بزرگ‌ترین پیشرفت از منظر قانون‌گذاری در سال‌های اخیر، مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR) بوده است که که تمام قوانین مرتبط با چگونگی مدیریت دیتای مصرف‌کنندگان و حفاظت از آن‌ها را از سوی کمپانی‌های تصریح می‌کند. غرامت‌های سنگین در انتظار هر شرکتی است که GDPR را نقض کند. مثالش گوگل بود که اوایل امسال از سوی رگولاتوری فرانسوی CNIL به خاطر «نبود شفافیت» درباره چگونگی شخصی‌سازی تبلیغات، با غرامت 67 میلیون دلاری روبرو شد. در جایی دیگر، بریتیش ایرویز و هتل‌های زنجیره‌ای ماریوت به خاطر رخنه‌های اطلاعاتی عظیم، به ترتیب محکوم به پرداخت غرامت ۲۳۰ و ۱۲۳ میلیون دلاری شدند. این غرامت‌ها می‌توانند زنگ خطری برای کمپانی‌ها باشند تا در آینده دیتا را بهتر مدیریت کنند. اما از چند منظر، قانون‌گذاری‌هایی که حالا می‌بینیم اندکی دیر از راه رسیده‌اند – کشتی حریم شخصی بادبان‌هایش را کشیده است.

«بازگشت به قبل کاری واقعاً دشوار است – این شرایط را قبلاً در زمینه قانون‌گذاری حفاظت از اطلاعات دیده‌ایم، اینکه تکنولوژی بسیار سریع‌تر از رگولاتوری‌ها حرکت می‌کند.» کایند ادامه می‌دهد:«تمام این کمپانی‌ها شروع به کار روی تمام این مسائل کردند؛ حالا قوانینی مانند GDPR داریم که سعی می‌کنند برخی از آن تلاش‌ها را عقب بکشند و این کاری واقعاً دشوار است».

با نگاه به ۱۵ سال پیش، دورانی که پردازش ابری و پردازش فراگیر جا افتاد، احتمالاً درس‌های زیادی برای آموختن درباره چگونگی همگام باقی ماندن جامعه با تحقیقات، توسعه و پیاده‌سازی هوش مصنوعی وجود داشته باشد. کایند به عنوان سخن آخر می‌گوید: «بیایید پیش از به کارگیری این چیزها، اندکی از سرعت بکاهیم. تا واقعاً تاثیرات اجتماعی را درک کنیم. به نظرم آنچه در خطر است بسیار وسیع است».


منبع: دیجیاتو
نظر شما :
نام:
ایمیل:
* نظر:
* کد امنیتی:
Chaptcha
حروفي را كه در تصوير مي‌بينيد عينا در فيلد مقابلش وارد كنيد