آیا هوشمندی زیاد ماشین برای ما خطر آفرین است؟

آیا هوشمندی زیاد ماشین برای ما خطر آفرین است؟
تاریخ انتشار : ۰۱ بهمن ۱۳۹۹

برخی از دانشمندان علوم کامپیوتر گفتند که کنترل ماشین‌های فوق العاده هوشمند بسیار سخت خواهد بود.

به گزارش گرداب، در حالی که فناوری هوش مصنوعی به سرعت درحال پیشرفت است، برخی از دانشمندان و فلاسفه درباره خطرات هوش مصنوعی هشدار می‌دهند. یک تیم بین‌المللی از محققان و دانشمندان در موسسه ماکس پلانک با استفاده از محاسبات نظری نشان دادند که کنترل هوش مصنوعی پیشرفته امکان پذیر نیست. این مطالعات در مجله تحقیقات هوش مصنوعی منتشر شده است. فرض بر این است که کسی بخواهد یک سیستم هوش مصنوعی را با هوشی بالاتر از انسان برنامه‌ریزی کند. این سیستم می‌تواند به طور مستقل یاد بگیرد. هوش مصنوعی متصل به اینترنت می‌تواند به تمام داده‌های بشریت دسترسی داشته باشد. این فناوری می‌تواند جایگزین تمام برنامه‌های موجود شود و کلیه ماشین‌آلات آنلاین را در سراسر جهان کنترل کند. حال سوالاتی پیش می‌آید؛ آیا این فناوری یک مدینه فاضله خواهد بود؟ آیا هوش مصنوعی می‌تواند سرطان را درمان کند؟ آیا می‌تواند صلح جهانی ایجاد کند و از یک فاجعه آب و هوایی جلوگیری کند؟

مشکلاتی که هوش مصنوعی هوشمند ممکن است ایجاد کند

دانشمندان در تلاش هستند تا بتوانند هوش مصنوعی هوشمند را کنترل کنند و اطمینان حاصل کنند که خطری برای بشریت وجود ندراد. یک تیم بین المللی از دانشمندان کامپیوتر با استفاده از محاسبات نظری نشان دادند که کنترل هوش مصنوعی هوشمند تقریبا غیرممکن است. یک ماشین فوق العاده هوشمند که جهان را کنترل می‌کند مانند داستان‌های علمی تخیلی به نظر می‌رسد، اما در حال حاضر ماشین‌هایی وجود دارند که برخی از کارهای مهم را به طور مستقل انجام می‌دهند بدون اینکه برنامه‌نویسان آن کارها را برای آن‌ها نوشته باشند. این سوال مطرح می‌شود که آیا این قضیه همیشه غیرقابل کنترل و خطرناک است؟

ایده‌های تئوری برای حل مشکل هوش مصنوعی هوشمند

دانشمندان دو ایده مختلف را برای چگونگی کنترل هوش مصنوعی هوشمند پیشنهاد داده‌اند. یکی از آن‌ها محدود کردن توانایی هوش مصنوعی هوشمند است. به عنوان مثال با جدا کردن آن از اینترنت و سایر دستگاه‌های فنی می‌توان آن را  کنترل کرد. با این کار هوش مصنوعی هوشمند به میزان قابل توجهی می‌تواند کنترل شود. راه دیگر آن است که هوش مصنوعی را فقط برای رسیدن به اهدافی که به نفع بشریت باشد، برنامه‌ریزی کرد. به عنوان مثال با برنامه‌ریزی اصول اخلاقی در آن می‌توان به اهداف مدنظر رسید. با این حال محققان نشان می‌دهند که این ایده‌ها و طرح‌ها برای کنترل هوش مصنوعی هوشمند دارای محدودیت‌هایی هستند.

این تیم تحقیقاتی یک الگوریتم نظری برای مهار این فناوری ابداع کرد که در آن اطمینان حاصل می‌شود هوش مصنوعی هوشمند تحت هیچ شرایطی نمی‌تواند به مردم آسیب برساند. در ابتدا رفتار هوش مصنوعی را شبیه‌سازی کردند و در صورت دیدن رفتار مضر، آن را متوقف می‌کند. اما تجزیه و تحلیل دقیق نشان داد که در الگوی محاسبات چنین الگوریتمی ساخته نمی‌شود. اگر مساله را به قوانین اساسی علوم رایانه نظری تقسیم کنیم، معلوم می‌شود که یک الگوریتم که به هوش مصنوعی دستور می‌دهد تا جهان را از بین نبرد، می‌تواند ناخواسته عملیات خود را متوقف کند. اگر این اتفاق بیافتد فرد نمی‌داند که چگونه این الگوریتم را مهار کند. بر اساس محاسبات مساله مهار غیرقابل انکار است. به عنوان مثال هیچ الگوریتمی نمی‌تواند راه حلی برای تعیین اینکه آیا هوش مصنوعی به دنیا آسیب می‌رساند پیدا کند. علاوه بر این محققان نشان دادند که حتی نمی‌توانند از زمان ورود ماشین‌های فوق هوشمند مطلع شوند.