این ابزار در برابر هوش مصنوعی به کمک هنرمندان و صاحبان حق نشر میآید.
به گزاری گرداب، محققان ابزاری طراحی کردهاند که هنرمندان با استفاده از آن میتوانند مدلهای هوش مصنوعی را به نحوی فریب دهند که نتوانند از آثار و سبک هنری آنها تقلید کنند.
در سالهای اخیر و با پیشرفت ابزارهای هوش مصنوعی مولد یکی از دغدغههایی که ایجاد شده استفاده شرکتهای هوش مصنوعی از آثار دارای حق نشر برای آموزش مدلهای خود است. مدلهای هوش مصنوعی مولد نیازمند مقادیر عظیمی داده هستند تا از طریق «یادگیری ماشین» از آنها الگوگیری کرده و سپس با استفاده از این الگوها محتوای جدید تولید کنند.
وبسایت VentureBeat در گزارشی به بررسی ابزاری پرداخته است که برای جلوگیری از سوءاستفادهی شرکتهای هوش مصنوعی از آثار تصویریِ دارای حق نشر ساخته شده است.
«پایگاه رسانهای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزههای مختلف فناوری اقدام میکند. انتشار مطالب به معنای تایید محتوای آن نیست».
نایتشید (Nightshade) که ابزاری رایگان برای «مسموم» کردن مدلهای هوش مصنوعی است، هماکنون برای استفاده هنرمندان در دسترس قرار گرفته است.
نایتشید در دسترس هنرمندان قرار گرفته تا از آنها در مقابل مدلهای هوش مصنوعی که میخواهند از آثار هنریشان برای آموزش و توسعه مدل هوش مصنوعی بهره ببرند محافظت کند.
این ابزار توسط متخصصان علوم کامپیوتر در پروژه Glaze دانشگاه شیکاگو تحت نظر پروفسور بن ژائو توسعه یافته است. اساس کار این ابزار، استفاده از هوش مصنوعی علیه هوش مصنوعی است. نایتشید با استفاده از یک ابزار یادگیری ماشین متنباز و محبوب به نام PyTorch محتوای یک تصویر را شناسایی و سپس برچسبی را اعمال میکند که به ظرافت سطح پیکسلی تصویر را تغییر میدهد. به این ترتیب، برنامههای دیگر هوش مصنوعی چیزی کاملاً متفاوت از آنچه واقعاً در تصویر وجود دارد را میبینند.
این ابزار دومین محصول تیمی است که قبلاً برنامهای به نام Glaze را معرفی کرده بود. ابزار Glaze برنامهای است که برای تغییر آثار هنری دیجیتال به درخواست کاربران طراحی شده است. این برنامه تصاویر را به گونهای تغییر میدهد که الگوریتمهای آموزشی هوش مصنوعی در تشخیص ویژگیهای سبک هنری آن تصویر دچار اشتباه شوند و خصوصیاتی نظیر ترکیب رنگها و ضربههای قلم را متفاوت از آن چیزی که واقعاً هست دستهبندی کنند.
این گروه تحقیقاتی Glaze را به عنوان یک ابزار دفاعی طراحی کرده و همچنان به هنرمندان توصیه میکند که از آن در کنار Nightshade استفاده کنند تا از تقلید سبک هنریشان توسط مدلهای هوش مصنوعی جلوگیری شود. در کنار آن نیز Nightshade به عنوان یک ابزار تهاجمی طراحی شده است.
یک مدل هوش مصنوعی که با تعداد زیادی از تصاویر تغییر یافته یا «سایه زده» توسط Nightshade آموزش دیده باشد، احتمالاً در آینده اشیاء را اشتباه دستهبندی خواهد کرد. این اشتباه در دستهبندی نه فقط برای تصاویری که با Nightshade تغییر کردهاند بلکه برای تصاویری که تغییر نکردهاند نیز رخ میدهد و روی تمام کاربرانی که از آن مدل استفاده کرده تأثیر میگذارد.
این گروه توضیح میدهد که به عنوان مثال، انسانها ممکن است تصویر یک گاو در مزرعه سبز را که توسط Nightshade تغییر یافته، تقریباً بدون تغییر ببینند، اما یک مدل هوش مصنوعی ممکن است آن را یک کیف چرمی بزرگ دراز کشیده در چمن تشخیص دهد. این نشان میدهد چگونه Nightshade میتواند تصاویر را به گونهای تغییر دهد که انسانها تفاوت زیادی مشاهده نکنند، اما مدلهای هوش مصنوعی به اشتباه آنها را چیز دیگری تشخیص دهند.
بنابراین، اگر این مدل هوش مصنوعی با تصاویری از گاو به نحوی ویرایش شده تا شبیه به کیف دستی به نظر برسند آموزش ببیند، شروع به تولید تصاویر کیف دستی به جای گاو میکند، حتی زمانی که کاربر از مدل درخواست کند تصویری از یک گاو تولید کند. این نشان میدهد که چگونه آموزش دادن مدلهای هوش مصنوعی با تصاویر ویرایش شده میتواند بر تواناییهای تشخیص و تولید تصاویر آنها تأثیر بگذارد و باعث خطاهای بزرگ شود.
آخرین جبهه در نبرد پرشتاب برای جمعآوری دادهها
موضوع اصلی این است ابزارهای هوش مصنوعی مولد که تصاویر را تولید میکنند چگونه آموزش دیدهاند. مدلهای آنها با تصاویر و دادههایی آموزش دیدهاند که از سراسر وب جمعآوری شده و شامل آثار هنری اصیل نیز میشود که هنرمندان بدون آگاهی یا قدرت تصمیمگیری قبلی در مورد این روش منتشر کردهاند. هنرمندان میگویند مدلهای هوش مصنوعی که بر اساس آثار آنها آموزش دیدهاند، با آنها رقابت کرده و باعث آسیب دیدن وضعیت اقتصادیشان میشوند.
جمعآوری دادهها شامل استفاده از برنامههای سادهای به نام «ربات» میشود که اینترنت را جستجو کرده و دادهها را از وبسایتهای عمومی کپی و به فرمتهای دیگری تبدیل میکنند که برای فرد یا نهادی که جمعآوری را انجام میدهد مفید باشد.
جمعآوری دادهها یک روش رایج در اینترنت است و قبل از ظهور هوش مصنوعی مولد نیز به طور گستردهای استفاده میشد. این تکنیک تقریباً مشابه روشی است که گوگل و بینگ برای جستجو و فهرستبندی وبسایتها در نتایج جستجو استفاده میکنند.
این روش اکنون در کانون توجه هنرمندان و نویسندگانی قرار گرفته که به این معترض هستند که از آثارشان بدون اجازه صریح برای آموزش مدلهای تجاری هوش مصنوعی استفاده شده است و هماکنون در خطر جایگزین شدن توسط آن هوش مصنوعی هستند.
سازندگان مدلهای هوش مصنوعی میگویند این روش برای آموزش مدلهایشان لازم است و البته قانونی است. آنها به قانون «استفاده منصفانه» در آمریکا استفاده میکنند که میگوید آثار قبلی را میتوان برای اهداف جدید و با تغییرات استفاده کرد.
شرکتهایی مانند OpenAI راه حلی را برای کسانی که نسبت به استفاده از محتوای تولیدی آنها برای آموزش هوش مصنوعی راضی نیستند ارائه دادهاند. آنها میتوانند از طریق افزودن یک کد به وبسایتهای خود از جمعآوری اطلاعاتشان برای آموزش هوش مصنوعی جلوگیری کنند. اما تیم نایتشید گفته است که در گذشته این درخواستهای انصراف اغلب از سوی شرکتها نادیده گرفته شده است. تعهد شرکتها به استفاده نکردن از محتوای وبسایتهایی که انصراف دادهاند قابل تأیید و نظارت نیست و نمیتوان با اطمینان بالایی افرادی را که این درخواستها و دستورالعملهای عدم جمعآوری را نقض میکنند شناسایی کرد.
هدف نهایی Nightshade چیست؟
تیم Nightshade میگوید که اگر از این ابزار به درستی استفاده شود، میتواند مانع کسانی شود که حق نشر و دستورالعملهای عدم جمعآوری دادهها را نادیده میگیرند. این ابزار بدون اینکه بر شرکتهای هوش مصنوعی خاصی تمرکز کند تلاش میکند هزینه کوچکی را بر این شرکتها برای استفادهی بدون مجوز از هر دادهای برای آموزش مدلهایشان اضافه کند.
هدف اصلی این است که با افزایش هزینه جمعآوری دادهها برای سازندگان مدلهای هوش مصنوعی، آنها وادار شوند به کسب مجوز از صاحبان حق نشر و هنرمندان به عنوان یک گزینهی معقولتر فکر کنند.
نایتشید نمیتواند آثار هنری که قبلاً جمعآوری شدهاند را تغییر دهد. این آثار همچنان برای آموزش مدلهای هوش مصنوعی استفاده میشوند. استفاده از Nightshade بر روی آنها در حال حاضر تنها زمانی مؤثر خواهد بو که این تصاویر دوباره جمعآوری شوند و برای آموزش نسخه جدیدی از مدل استفاده شوند.