توسعه هوش مصنوعی به هیچ وجه مردمسالارانه و شفاف نیست و اصلا این مفهوم که توسط شرکتهای بزرگ مطرح میشود تا سهمشان از بازار افزایش داده شود و دور قدرت در این حوزه برای خود حصار بکشند.
به گزارش گرداب، مدیر سیگنال در یک یادداشت آکادمیک به نقد رویکرد کلی شرکتهای هوش مصنوعی پرداخته است. مردیت ویتاکر (Meredith Whittaker) در این یادداشت به عنوان نویسنده مشترک حضور دارد و به نقد عدم شفافیت در حوزه هوش مصنوعی پرداخته است.
نویسندگان دیگر این مقاله دیوید ویدر (David Widder) از دانشگاه کارنگی ملون و سارا وست از انستیتو AI Now هستند. نویسندگان این مقاله معتقدند تعبیر «باز» و «متن باز» بودن در این حوزه گمراهکننده است و معمولا بیشتر منظور جنبه رویاپردازانه یا بازاریابی را شامل میشود تا این که توصیف فنی دقیقی باشد.
«این مسئله افق پیچیده را پیچیدهتر میکند، زیرا که در حال حاضر درباره تعریف «باز» در زمینه هوش مصنوعی بر سر هیچ تعریفی توافق نیست و این تعبیر درباره محصولات متفاوتی به کار میرود».
بهطور مثال شرکت هوش مصنوعی BigScience که الگو یادگیری زبان BLOOM را میسازد آن را «کاملا باز» در برابر تحقیق و تفحص «جامعه علمی» و «ناظران برجسته» میخواند، در حالی که هوش مصنوعی PaLM و Imagen گوگل تنها در برابر «تحقیقات درونی» و «چشمانداز محدود» پاسخگو است.
ویتاکر و همراهان او مینویسند: «به خاطر اهمیت فوقالعاده این مسئله در هوش مصنوعی «باز» در این حوزه نمیتواند به معنای هوش مصنوعی «مردمسالارانه» باشد و هیچ چالشی برای تمرکزگرایی قدرت در صنعت فناوری ارائه نمیکند».
چارچوبهای توسعه متن باز ممکن است به توسعه و بهکارگیری هوش مصنوعی کمک کند، اما آنها به شکل واضحی به نفع کسانی خواهد بود که آن را طراحی کردهاند. این اقدام در صورتی عامالمنفعه قلمداد میشود که توسط استارتاپهای کوچک استفاده شود، اما وقتی توسط شرکتهای غول پیکر به کار میرود این پارادیمهای ساختاری تبدیل به ابزاری برای تمرکز قدرت میشود.