به گزارش
گرداب، کارشناسان معتقدند که شاید دهها نمونه از تعصبات انسانی در الگوریتمهای هوش مصنوعی (AI) وجود داشته باشند، اما کار چندانی از سوی شرکتها انجام نشده است تا ملاحظات اخلاقی را در تصمیمگیریهای هوش مصنوعی لحاظ کنند. در عوض، بیشتر شرکتها تمایل به انجام اصلاحات بعد از واقعیت، البته با عذرخواهی زیاد، دارند. با این حال، یک کنفرانس معتبر در تلاش است تا قوانین بازی را تغییر دهد. در حالت طبیعی، در کنفرانس سیستمهای پردازش اطلاعات عصبی (NeurIPS) که اوایل ماه برگزار شد، یک هیئت اخلاقی مقالات و اینکه آیا فناوری پیشنهادی عوارض جانبی بالقوهای دارد یا تحقیق میتواند استفادههای ناخواسته داشته باشد، را ارزیابی کرد. هدف هیئت مدیره، پیشنهاد به شرکت کنندگان برای تحقیق و توسعه فناوری بود كه تبعات بزرگتری را برای جامعه به همراه دارد. امسال، از 9،467 مورد ارسال شده، 290 مورد پذیرفته و چهار نفر رد شدند.
اگرچه بسیاری کارشناسان معتقدند که غربالگری مقالات در مورد جنبههای اخلاقی باعث میشود تا تحقیقات از بین برود، اما آنچه باید مورد توجه قرار گیرد این است که جهان به طور فزایندهای با موارد سوءاستفاده از فناوری مبارزه میکند. به عنوان مثال، فناوریهای جعلی عمیق بهوسیله اشرار برای انتشار اخبار جعلی استفاده میشوند. اگرچه بسیاری شرکتها مانند آیبیام (IBM) پیشنهادات شناسایی چهره خود را برای پلیس پس گرفتهاند، اما بسیاری از ادارات پلیس و شهرستان با وجود گزارش سوگیری و تشخیص نادرست، هنوز از چنین فناوری استفاده میکنند. ملاحظات اخلاقی محققان را مجبور میکند جنبههای حریم خصوصی و استفاده نادرست از فناوری را در نظر بگیرند. با توجه به اینکه هوش مصنوعی میتواند عمیقاً در زندگی روزمره نفوذ کند، توسعه دهندگان باید از ایجاد فنآوری «Frankensteins» اجتناب کنند و کنفرانس سیستمهای پردازش اطلاعات عصبی راه را نشان میدهد.