مدیر سیگنال: هوش مصنوعی باز و مردم‌سالارانه نیست

مدیر سیگنال: هوش مصنوعی باز و مردم‌سالارانه نیست
تاریخ انتشار : ۲۹ مرداد ۱۴۰۲

توسعه هوش مصنوعی به هیچ وجه مردم‌سالارانه و شفاف نیست و اصلا این مفهوم که توسط شرکت‌های بزرگ مطرح می‌شود تا سهم‌شان از بازار افزایش داده شود و دور قدرت در این حوزه برای خود حصار بکشند.

به گزارش گرداب، مدیر سیگنال در یک یادداشت آکادمیک به نقد رویکرد کلی شرکت‌های هوش مصنوعی پرداخته است. مردیت ویتاکر (Meredith Whittaker) در این یادداشت به عنوان نویسنده مشترک حضور دارد و به نقد عدم شفافیت در حوزه هوش مصنوعی پرداخته است.

نویسندگان دیگر این مقاله دیوید ویدر (David Widder) از دانشگاه کارنگی ملون و سارا وست از انستیتو AI Now هستند. نویسندگان این مقاله معتقدند تعبیر «باز» و «متن باز» بودن در این حوزه گمراه‌کننده است و معمولا بیشتر منظور جنبه رویاپردازانه یا بازاریابی را شامل می‌شود تا این که توصیف فنی دقیقی باشد.

«این مسئله افق پیچیده را پیچیده‌تر می‌کند، زیرا که در حال حاضر درباره تعریف «باز» در زمینه هوش مصنوعی بر سر هیچ تعریفی توافق نیست و این تعبیر درباره محصولات متفاوتی به کار می‌رود».

به‌طور مثال شرکت هوش مصنوعی BigScience که الگو یادگیری زبان BLOOM را می‌سازد آن را «کاملا باز» در برابر تحقیق و تفحص «جامعه علمی» و «ناظران برجسته» می‌خواند، در حالی که هوش مصنوعی PaLM و Imagen گوگل تنها در برابر «تحقیقات درونی» و «چشم‌انداز محدود» پاسخگو است.

ویتاکر و همراهان او می‌نویسند: «به خاطر اهمیت فوق‌العاده این مسئله در هوش مصنوعی «باز» در این حوزه نمی‌تواند به معنای هوش مصنوعی «مردم‌سالارانه» باشد و هیچ چالشی برای تمرکزگرایی قدرت در صنعت فناوری ارائه نمی‌کند».

چارچوب‌های توسعه متن باز ممکن است به توسعه و به‌کارگیری هوش مصنوعی کمک کند، اما آن‌ها به شکل واضحی به نفع کسانی خواهد بود که آن را طراحی کرده‌اند. این اقدام در صورتی عام‌المنفعه قلمداد می‌شود که توسط استارتاپ‌های کوچک استفاده شود، اما وقتی توسط شرکت‌های غول پیکر به کار می‌رود این پارادیم‌های ساختاری تبدیل به ابزاری برای تمرکز قدرت می‌شود.