چرا هوش مصنوعی، تهدیدی برای دموکراسی است؟

چرا هوش مصنوعی، تهدیدی برای دموکراسی است؟
تاریخ انتشار : ۱۳ اسفند ۱۳۹۷

یک آینده‌پژوه آمریکایی در حوزه هوش مصنوعی، به تازگی هشدار داد، با توجه به پیشرفته های صورت گرفته در این زمینه، در حال حرکت به سمت یک فاجعه هستیم.

به گزارش گرداب، امی وب (Amy Webb)، آینده‌پژوه، استاد دانشگاه نیویورک و برنده جایزه نویسندگی، طی دهه‌ گذشته، عمر فراوانی را به پژوهش، گفتگو و ملاقات با افراد و سازمان‌هایی اختصاص داده است که در حوزه هوش مصنوعی، فعالیت می‌کنند.

وب گفت:
 ما در همه‌ زمینه‌های هوش مصنوعی، به یک نقطه‌ اوج رسیده‌ایم. اکنون زمان آن فرا رسیده است که بازگردیم و نگاه کنیم؛ چه اتفاقی روی ‌داده است. 

آینده‌پژوه یادشده، در کتاب تازه خود، با نام «نُهِ بزرگ: چگونه غول‌های فناوری و ماشین‌های متفکر آن‌ها می‌توانند انسان را منقرض کنند» با بررسی ترندهای روز، هشدار داد؛ مسیری که امروزه توسعه فناوری در پیش گرفته، بسیار خطرناک است.

در آمریکا، گوگل، مایکروسافت، آمازون، فیس‌بوک، IBM و اپل، یا به‌طور کل جی-مافیا (G-MAFIA) با تقاضاهای کوتاه‌مدت یک بازار سرمایه‌داری بی‌رحم روبه‌رو هستند که امکان برنامه‌ریزی طولانی‌مدت و هوشمندانه را در حوزه هوش مصنوعی از بین می‌برد. در چین، تنسنت، علی‌بابا و بایدو نیز با داده‌کاوی حجم عظیمی از اطلاعات، آرمان‌های دولت آن کشور را تقویت می‌کنند.

این استاد دانشگاه نیویورک، هشدار می‌دهد که اگر مسیر در پیش‌ گرفته شده، تغییر نکند، انسان‌ها مستقیماً به سمت یک فاجعه هدایت می‌شوند؛ اما همچنان زمان کافی، برای واکنش نشان دادن و تعیین نقش مناسب برای هر فرد، وجود دارد.

وبگاه «MIT Technology Review» به تازگی مصاحبه‌ای را در رابطه با نگرانی‌های امی وب، با وی ترتیب داده است که در ادامه، آن را مطالعه می‌کنید.

MIT: شما اشاره کردید که ما هم‌اکنون شاهد یک همگرایی نگرانی کننده، میان ترندهای فناوری، سیاست و اقتصاد هستیم. می‌توانید توضیح دهید که ترندهای فناورانه چیست؟
وب: هنگامی که با متخصصان فعال در زمینه هوش مصنوعی حرف می‌زنید، آن‌ها به شما می‌گویند که تا به حقیقت پیوستن خیلی از وعده‌های داده شده در این حوزه، زمان بسیاری باقی ‌مانده است. در آن وقت، مواردی مانند خودروهای کاملاً خودمختار، تشخیص هویت قطعی، یا سامانه‌های هوش مصنوعی همگانی (AGI)، از توانایی‌های شناخت و تفکری مشابه انسان بهره‌مند می‌شوند.

از دیدگاه من، چشم دوختن به افقی که در آن، چندین نوع روبات انسان‌نما، با قابلیت راه رفتن و صحبت کردن وجود دارند، یا سامانه‌هایی که به صورت خودمختار، تصمیم‌گیری می‌کنند؛ تا حدودی نادیده گرفته شده ‌است. ما هم‌اکنون میلیاردها پیشرفت کوچک را مشاهده می‌کنیم که در طول زمان، تأثیرات قابل ‌توجهی را از خود به جای می‌گذارند و باعث می‌شوند که سیستم‌ها بتوانند به طور مستقل، تصمیم‌گیری نمایند.

برای مثال، آزمایشگاه دیپ مایند گوگل (DeepMind)، بعد از سخت‌کوشی‌های فراوان، موفق شد سامانه‌ای به نام آلفا گو (Alpha Go) را پدید آورد. آلفا گو، قادر است انسان‌ها را در اجرای بازی تخته‌ای گو (Go)، شکست دهد. آن‌ها در زمینه‌هایی مانند یادگیری تقویتی سلسله مراتبی (hierarchical reinforcement learning) و یادگیری چندوظیفگی (multitask learning) بسیار پیشرفت کرده‌اند.

آخرین نسخه از الگوریتم آلفا گو، با نام آلفا زیرو (AlphaZero) توانست یاد بگیرد که چگونه بدون دخالت انسان‌ها، 3 بازی را به صورت همزمان انجام دهد. این موضوع، یک ترقی نسبتاً بزرگ است. همچنین زمینه‌های بسیار تازه‌ای در شبکه‌های مولد خصمانه (generative adversarial networks) وجود دارند. حوزه‌ای که به شما امکان می‌دهد؛ تصاویر دروغین، اما ظاهراً بسیار واقعی از چهره‌ انسان‌ها، به وجود آورید.

پیشرفت‌های یادشده، به‌اندازه‌ای که در رابطه با هوش مصنوعی همگانی صحبت کردیم، جذابیت ندارند؛ اما اگر کمی افق دید خود را فراخ‌تر نمایید، خواهید دید که درحال حرکت به سمتی هستیم که سامانه‌ها برای ما تصمیم‌گیری می‌کنند. ما باید توقف نموده، از خود بپرسیم که اگر این‌گونه سیستم‌ها، راهبردهای انسانی را به منظور دستیابی به منفعتی ناشناخته، کنار بگذارند، چه رخ خواهد داد.

MIT: در رابطه با ترندهای سیاسی و اقتصادی چطور؟ آیا می‌توانید یکی از اصلی‌ترین نگرانی‌های خود را در این رابطه، شرح دهید؟
وب: جریان آزاد ایده‌ها در آمریکا می‌تواند بدون هیچ‌گونه محدودیتی، گسترش یابد. به همین دلیل است که دره سیلیکون، پدید آمد. این موضوع، رقابت و نوآوری‌ها را افزایش داد و همین مسئله، باعث شد که در حوزه هوش مصنوعی، به محلی برسیم که هم‌اکنون در آن قرار داریم.

با وجود این، در آمریکا، از نبود دوراندیشی، رنج می‌بریم. به عبارت دیگر، به جای ایجاد یک راهبرد دراز مدت در زمینه هوش مصنوعی، دولت فدرال، منابع مالی را از تحقیقات علمی و پژوهش‌ها بیرون کشیده است. بنابراین بودجه باید از سمت بخش خصوصی، تأمین شود؛ اما سرمایه‌گذاران نیز انتظار دارند که پول آن‌ها باز گردد. مشکل همین‌جا است. شما نمی‌توانید در هنگام کار روی فناوری و پژوهش، برای تحقیق و توسعه‌ طرح‌های خود، برنامه‌ریزی کنید.

اگر شرکت‌های بزرگ فناوری، بدون داشتن محصولاتی که در اجلاس‌های سالانه، به نمایش می‌گذارند، به سختی روی پروژه‌های عظیم کار کنند، بسیار فوق‌العاده خواهد بود. با وجود این، ما هم‌اکنون می‌توانیم به بی‌شمار شاهدمثالی اشاره ‌کنیم که یکی از شرکت‌های جی-مافیا، در آن‌ها، تصمیمات بدی را اتخاذ کرده‌ است و این چالش‌ها، احتمالاً به علت فعالیت سریع آن‌، رخ می‌دهد.

ما هم‌اکنون می‌توانیم تأثیرات منفی میان پژوهش‌هایی که مردم را به وجد می‌آورند و آن‌هایی که سرمایه‌گذاران را خوش‌حال می‌کنند، مشاهده کنیم.

مسئله یادشده، به اندازه‌ کافی بد است، نه؟ اما همه‌ این‌ها، هنگامی روی می‌دهند که حجم عظیمی از قدرت در چین، رو به تقویت است. چین از صندوق سرمایه‌گذاری بزرگی، در زمینه تحقیقات هوش مصنوعی، بهره می‌برد. آن‌ها مقدار فراوانی پول را به این حوزه، اختصاص می‌دهند. همچنین زمانی که مباحث حریم خصوصی و داده‌ها مطرح می‌شوند، ایده‌هایی کاملاً متفاوت با آمریکا را در سر می‌پرورانند. این مسئله بیان می‌کند که آن‌ها قادر هستند حجم بیشتری از اطلاعات را استخراج و تحلیل کنند.

با وجود یک قدرت مرکزی، برای دولت این کشور، بسیار آسان است که خدمات هوش مصنوعی را بر اساس داده‌های 1.3 میلیارد نفر، ایجاد و آزمایش کند. به علاوه این اقدامات، تنها در داخل کشور خودشان، صورت می‌گیرد.

آن‌ها یک برنامه ایجاد راه ابریشم جدید (Belt and Road Initiative) دارند که به نظر می‌رسد برنامه‌ای با زیرساخت‌های سنتی، اما تا حدی دیجیتالی است. این پروژه، تنها شامل ایجاد راه‌ها و پل‌ها نمی‌شود؛ بلکه توسعه شبکه‌های 5G، فیبرهای نوری و استخراج و واکاوی داده‌ها را نیز در بر می‌گیرد.
گسترش فناوری‌های یادشده، برای مردمی که به آرمان‌هایی مانند: آزادی بیان و دموکراسی غربی، اهمیت می‌دهند، خطرناک است.

MIT: چرا باید برای حفظ آرمان‌های دموکراتیک غرب، تلاش کنیم؟
وب: چه سؤال خوبی! من در چین، ژاپن و به طور مشخص، آمریکا زندگی کرده‌ام. شما می‌توانید به وضعیت حال حاضر این کشور و اتفاقاتی که در چین می‌افتد، نگاه کنید و شگفت‌زده شوید. آیا این واقعاً بدترین چیز است؟

در هر صورت، به نظر می‌رسد که سیستم رده‌بندی اجتماعی چین، برای مردم آمریکا، عجیب و ترسناک باشد؛ اما چیزی که بیشتر مردم درک نمی‌کنند، این است که خود گزارش دهی و نظارت رفتاری در داخل روستاها و جوامع چین، برای همیشه، به بخشی از فرهنگ جدایی‌ناپذیر چینی‌ها، تبدیل شده است. سیستم رده‌بندی اجتماعی، این اقدام را خودکار کرده است. بنابراین بله؛ سؤال شما، بسیار خوب است.

حدس می‌زنم. چیزی که می‌گویم، این است که اگر به هر 2 نسخه ایده‌های کمونیسم چینی و دموکراسی غربی بنگریم. من دموکراسی غربی را انتخاب می‌کنم؛ زیرا فکر می‌کنم که در آن، فرصت بهتری برای گردش آزاد ایده‌ها و مردمی که هر روز به سوی موفقیت حرکت می‌کنند، وجود دارد.

من معتقدم که دادن انگیزه به مردم، برای پیروزی‌های فردی و شخصی، یک راه عالی، به منظور بالا بردن سطح جامعه است و به ما، یاری می‌رساند که به بیشترین ظرفیت بالقوه‌ توانایی‌های فردی خود، دست پیدا کنیم.

MIT: با توجه به این که جهان امروز، در حال حرکت به سوی هوش مصنوعی است، آیا مقایسه یادشده، عادلانه است؟ آیا ما باید نسخه‌ ایده‌آل کمونیسم چینی و دموکراسی غربی را با یکدیگر قیاس کنیم؟ یا بدترین حالت این دو را؟
وب: این یک پرسش عالی است؛ زیرا شما می‌توانید بیان کنید که بخش‌هایی از اکوسیستم هوش مصنوعی، هم‌اکنون روی ایده‌آل‌های دموکراسی غربی، تأثیر منفی گذاشته است. به طور مشخص و برای مثال، همه‌چیز با خدمات فیس‌بوک، اتفاق افتاد. همچنین نگاه کنید که حادثه‌ای برای جامعه «anti-vaxxer» رخ داد. افراد حاضر در این جامعه، اطلاعاتی کاملاً غلط را در رابطه با واکسن‌ها و پایه‌ علمی آن‌ها، منتشر می‌کردند. سنت‌های آمریکایی ما، آزادی بیان را مطرح می‌نمایند. پلتفرم‌ها بستر مناسبی هستند و مردم باید اجازه داشته باشند که خودشان را توضیح بدهند.

چالش این است که الگوریتم‌ها در رابطه با محتوای موضوعات، تصمیم‌گیری می‌کنند و مردم را به اتخاذ انتخاب بد، سوق می‌دهند. درنتیجه این پدیده، کودکان مریض خواهند شد.

مشکل این است که فناوری ما، روزبه‌روز پیچیده‌تر می‌شود؛ اما ما در این فکر هستیم که سخنرانی آزاد چیست و اقتصاد بازار، چگونه پیچیده نشده است. ما تمایل داریم که تفسیرهای بسیار پایه‌ای، ارائه دهیم. آزادی بیان، به این معنی است که همه‌ ما، آزاد هستیم در رابطه با هر چیزی صحبت کنیم؛ مگر این که حرف‌هایمان، در مقابل قانون و محل توهین به آن، قرار گیرد. درست در همین نقطه است که داستان پایان می‌یابد.

اما این پایان همه ماجرا نیست. ما باید بیشتر گفتگوهای پیچیده‌تر و هوشمندانه‌تر را در رابطه با قوانین فعلی خود، فناوری نوظهور و شیوه‌ای که می‌توانیم بین این دو، تعادل برقرار کنیم، آغاز نماییم.

MIT: به عبارت دیگر، آیا شما معتقدید، از جایی که هم‌اکنون در آن قرار داریم، سرگرم تحول به سمت آرمان‌های دموکراسی غربی هستید و شما ایده‌آل کمونیسم چینی را ترجیح می‌دهید؟
وب: درست است. من بر این باور هستم که این موضوع، امکان‌پذیر است. نگرانی اصلی‌ام، این است که همه منتظر هستند تا ما پای خود را عقب بکشیم و به سمت فاجعه‌ واقعی، حرکت کنیم؛ تا مردم، واکنش نشان دهند. اگرچه در محلی که هم‌اکنون به آن رسیده‌ایم، سانحه‌ای رخ نداده است؛ اما از نظر من، دانه‌های سرخ و چرکین پشت کمر آمریکا، به معنی یک پیامد فاجعه‌آمیز است!

پس برای بیداری انتخابات (wake of the election)، چه رخ خواهد داد؟ با صرف‌نظر از این که افراد، در کدام‌یک از طیف‌های سیاسی هستند، من تصور نمی‌کنم امروزه شخصی بیندیشد که با توجه به شرایط سیاسی فعلی، آینده‌ خوبی، پیش روی ما، قرار دارد.

من کاملاً باور دارم که مسیری در مقابل ما قرار دارد؛ اما نیاز داریم با یکدیگر همکاری کرده، شکاف میان دره‌ سیلیکون و واشنگتن دی سی را از بین ببریم. در این زمان است که می‌توانیم همه در یک‌جهت حرکت کنیم.

MIT: شما به دولت، شرکت‌ها، دانشگاه‌ها و مصرف‌کنندگان خصوصی، چه سفارشی می‌کنید؟
وب: مسیر توسعه هوش مصنوعی، مشکل است و همه‌ ما، در آن سهم داریم. شما، من، پدرم، همسایه کناری و فرد شاغل در فروشگاهی که هم‌اکنون از کنار آن رد شدم، همه مسئول هستیم.

بنابراین مردم باید روزانه چه‌کاری انجام دهند؟ آن‌ها باید نسبت به این که چه اشخاصی به داده‌های آن‌ها دسترسی دارد و چگونه از آن بهره می‌برند، آگاه باشند. برای خواندن نوشته‌های افراد باهوش، باید وقت گذاشت و دقایقی را به درک آن‌ها، اختصاص داد. قبل از این که زندگی خود را امضا و به اشتراک‌گذاری تصاویر فرزندانتان را آغاز کنید، این کار را به صورت آگاهانه انجام دهید. اگر شما با چیزی که به آن اشاره می‌شود و مفهومی که بعداً خواهد داشت، مشکلی ندارید، خوب است؛ اما حداقل ابتدا در آن زمینه به کسب دانش بپردازید.

تجارت‌ها و سرمایه‌گذاران نمی‌توانند انتظار داشته باشند که یک فرآورده را بارها با سرعت، تولید کنند. این مسئله ما را آماده مشکلات انتهای جاده خواهد کرد. درنتیجه آن‌ها می‌توانند کارهایی مانند فرآیند استخدام خود را حفظ کنند. همچنین باید به طور قابل ‌توجهی، روی بهبود محتوای خود تلاش کنند و مطمئن شوند که کارمندانشان بیش از گذشته، مشابه با چیزی هستند که در جهان واقعی به نظر می‌رسد. آن‌ها همچنین می‌توانند در بعضی مواقع، توافق کنند. هرگونه سرمایه‌گذاری روی یک شرکت، یا پروژه هوش مصنوعی، یا هر چیز دیگری، باید از نظر زمان و هزینه، مورد بررسی قرار گیرد و مواردی مانند خطرات و تعصبات آن، تجزیه و تحلیل شوند.

دانشگاه‌ها باید دوره‌های ترکیبی را در برنامه‌های خود ایجاد کنند. آن‌ها باید دانشجویان را به تحصیل در ادبیات تطبیقی، ادیان جهان، اقتصاد خرد، مردم شناسایی و فرهنگ و دوره‌های مشابه در سایر حوزه‌ها، تشویق نمایند. آن‌ها باید از برنامه‌های تحصیلی دوگانه در علوم رایانه و روابط بین‌الملل، الهیات، علوم سیاسی، فلسفه، بهداشت عمومی، آموزش‌ و پرورش و موارد مشابه، حمایت کنند. اصول اخلاقی، نباید به صورت یک کلاس مستقل، تدریس و به سادگی از فهرست، کنار گذاشته شود.

مدارس حتی باید اساتید را وادار کنند، تا در رابطه با مسائلی مانند تعصب، خطر، فلسفه، مذهب، جنسیت و اخلاق، سخن گویند.

یکی از بزرگ‌ترین توصیه‌های من، تأسیس گایا (GAIA) است. چیزی که من آن را اتحاد جهانی روی تقویت هوشمندی (Global Alliance on Intelligence Augmentation) می‌نامم. هم‌اینک مردم سراسر جهان، نگرش‌ها و رویکردهای مختلفی را در رابطه با جمع‌آوری داده‌ها و هم‌رسانی آن‌ها دارند. چه چیزی می‌تواند و باید خودمختار شود؟ ازسوی دیگر، با وجود سامانه‌های هوشمندتر، آینده به چیزی شبیه خواهد بود؟

بنابراین من فکر می‌کنم؛ ما باید نوعی سازمان مرکزی تأسیس کنیم که بتواند هنجارها و استانداردهای جهانی را توسعه بخشد. نوعی گارد محافظ پدید آید که نه تنها آرمان‌های سامانه‌های هوش مصنوعی آمریکایی و چینی را مدنظر قرار ‌دهد؛ بلکه دیدگاه‌های جهانی همگان را که بسیار نمایان‌تر نیز هستند، در بر گیرد.

بیش از هر چیز، ما باید به رویکردهای بلندمدت‌تر بیندیشیم؛ نه چشم‌اندازهای 5 ساله. ما باید گفتن جملاتی را مانند «خب، ما که نمی‌توانیم آینده را پیش‌بینی کنیم، پس بگذارید درباره آن نگران نباشیم»، متوقف کنیم. درست است که قادر نیستیم آینده را پیش‌بینی کنیم؛ اما مطمئناً می‌توانیم برنامه‌ریزی بهتری انجام دهیم.