هوش مصنوعی و معضل رعایت اخلاقیات

هوش مصنوعی و معضل رعایت اخلاقیات
تاریخ انتشار : ۰۹ دی ۱۳۹۹

توسعه دهندگان هوش مصنوعی باید از ایجاد فرنکشتاین‌های فناوری خودداری کنند.

به گزارش گرداب، کارشناسان معتقدند که شاید ده‌ها نمونه از تعصبات انسانی در الگوریتم‌های هوش مصنوعی (AI) وجود داشته باشند، اما کار چندانی از سوی شرکت‌ها انجام نشده است تا ملاحظات اخلاقی را در تصمیم‌گیری‌های هوش مصنوعی لحاظ کنند. در عوض، بیشتر شرکت‌ها تمایل به انجام اصلاحات بعد از واقعیت، البته با عذرخواهی زیاد، دارند. با این حال، یک کنفرانس معتبر در تلاش است تا قوانین بازی را تغییر دهد. در حالت طبیعی، در کنفرانس سیستم‌های پردازش اطلاعات عصبی (NeurIPS) که اوایل ماه برگزار شد، یک هیئت اخلاقی مقالات و اینکه آیا فناوری پیشنهادی عوارض جانبی بالقوه‌ای دارد یا تحقیق می‌تواند استفاده‌های ناخواسته داشته باشد، را ارزیابی کرد. هدف هیئت مدیره، پیشنهاد به شرکت کنندگان برای تحقیق و توسعه فناوری بود كه تبعات بزرگ‌تری را برای جامعه به همراه دارد. امسال، از 9،467 مورد ارسال شده، 290 مورد پذیرفته و چهار نفر رد شدند.

اگرچه بسیاری کارشناسان معتقدند که غربالگری مقالات در مورد جنبه‌های اخلاقی باعث می‌شود تا تحقیقات از بین برود، اما آنچه باید مورد توجه قرار گیرد این است که جهان به طور فزاینده‌ای با موارد سوءاستفاده از فناوری مبارزه می‌کند. به عنوان مثال، فناوری‌های جعلی عمیق به‌وسیله اشرار برای انتشار اخبار جعلی استفاده می‌شوند. اگرچه بسیاری شرکت‌ها مانند آی‌بی‌ام (IBM) پیشنهادات شناسایی چهره خود را برای پلیس پس گرفته‌اند، اما بسیاری از ادارات پلیس و شهرستان با وجود گزارش سوگیری و تشخیص نادرست، هنوز از چنین فناوری استفاده می‌کنند. ملاحظات اخلاقی محققان را مجبور می‌کند جنبه‌های حریم خصوصی و استفاده نادرست از فناوری را در نظر بگیرند. با توجه به اینکه هوش مصنوعی می‌تواند عمیقاً در زندگی روزمره نفوذ کند، توسعه دهندگان باید از ایجاد فن‌آوری «Frankensteins» اجتناب کنند و کنفرانس سیستم‌های پردازش اطلاعات عصبی راه را نشان می‌دهد.