مسموم کردن هوش مصنوعی با Nightshade

مسموم کردن هوش مصنوعی با Nightshade
تاریخ انتشار : ۱۲ بهمن ۱۴۰۲

این ابزار در برابر هوش مصنوعی به کمک هنرمندان و صاحبان حق نشر می‌آید.

به گزاری گرداب، محققان ابزاری طراحی کرده‌اند که هنرمندان با استفاده از آن می‌توانند مدل‌های هوش مصنوعی را به نحوی فریب دهند که نتوانند از آثار و سبک هنری آن‌ها تقلید کنند.

در سال‌های اخیر و با پیشرفت ابزار‌های هوش مصنوعی مولد یکی از دغدغه‌هایی که ایجاد شده استفاده شرکت‌های هوش مصنوعی از آثار دارای حق نشر برای آموزش مدل‌های خود است. مدل‌های هوش مصنوعی مولد نیازمند مقادیر عظیمی داده هستند تا از طریق «یادگیری ماشین» از آن‌ها الگوگیری کرده و سپس با استفاده از این الگو‌ها محتوای جدید تولید کنند.

وب‌سایت VentureBeat در گزارشی به بررسی ابزاری پرداخته است که برای جلوگیری از سوءاستفاده‌ی شرکت‌های هوش مصنوعی از آثار تصویریِ دارای حق نشر ساخته شده است.

«پایگاه رسانه‌ای گرداب جهت آگاهی و افزایش دانش مخاطبان خود به ترجمه و انتشار مطالبی در حوزه‌های مختلف فناوری اقدام می‌کند. انتشار مطالب به معنای تایید محتوای آن نیست».


نایت‌شید (Nightshade) که ابزاری رایگان برای «مسموم» کردن مدل‌های هوش مصنوعی است، هم‌اکنون برای استفاده هنرمندان در دسترس قرار گرفته است.

نایت‌شید در دسترس هنرمندان قرار گرفته تا از آن‌ها در مقابل مدل‌های هوش مصنوعی که می‌خواهند از آثار هنری‌شان برای آموزش و توسعه مدل هوش مصنوعی بهره ببرند محافظت کند.

این ابزار توسط متخصصان علوم کامپیوتر در پروژه Glaze دانشگاه شیکاگو تحت نظر پروفسور بن ژائو توسعه یافته است. اساس کار این ابزار، استفاده از هوش مصنوعی علیه هوش مصنوعی است. نایت‌شید با استفاده از یک ابزار یادگیری ماشین متن‌باز و محبوب به نام PyTorch محتوای یک تصویر را شناسایی و سپس برچسبی را اعمال می‌کند که به ظرافت سطح پیکسلی تصویر را تغییر می‌دهد. به این ترتیب، برنامه‌های دیگر هوش مصنوعی چیزی کاملاً متفاوت از آنچه واقعاً در تصویر وجود دارد را می‌بینند.

این ابزار دومین محصول تیمی است که قبلاً برنامه‌ای به نام Glaze را معرفی کرده بود. ابزار Glaze برنامه‌ای ا‎ست که برای تغییر آثار هنری دیجیتال به درخواست کاربران طراحی شده است. این برنامه تصاویر را به گونه‌ای تغییر می‌دهد که الگوریتم‌های آموزشی هوش مصنوعی در تشخیص ویژگی‌های سبک هنری آن تصویر دچار اشتباه شوند و خصوصیاتی نظیر ترکیب رنگ‌ها و ضربه‌های قلم را متفاوت از آن چیزی که واقعاً هست دسته‌بندی کنند.

این گروه تحقیقاتی Glaze را به عنوان یک ابزار دفاعی طراحی کرده و همچنان به هنرمندان توصیه می‌کند که از آن در کنار Nightshade استفاده کنند تا از تقلید سبک هنری‌شان توسط مدل‌های هوش مصنوعی جلوگیری شود. در کنار آن نیز Nightshade به عنوان یک ابزار تهاجمی طراحی شده است.

یک مدل هوش مصنوعی که با تعداد زیادی از تصاویر تغییر یافته یا «سایه زده» توسط Nightshade آموزش دیده باشد، احتمالاً در آینده اشیاء را اشتباه دسته‌بندی خواهد کرد. این اشتباه در دسته‌بندی نه فقط برای تصاویری که با Nightshade تغییر کرده‌اند بلکه برای تصاویری که تغییر نکرده‌اند نیز رخ می‌دهد و روی تمام کاربرانی که از آن مدل استفاده کرده تأثیر می‌گذارد.

این گروه توضیح می‌دهد که به عنوان مثال، انسان‌ها ممکن است تصویر یک گاو در مزرعه سبز را که توسط Nightshade تغییر یافته، تقریباً بدون تغییر ببینند، اما یک مدل هوش مصنوعی ممکن است آن را یک کیف چرمی بزرگ دراز کشیده در چمن تشخیص دهد. این نشان می‌دهد چگونه Nightshade می‌تواند تصاویر را به گونه‌ای تغییر دهد که انسان‌ها تفاوت زیادی مشاهده نکنند، اما مدل‌های هوش مصنوعی به اشتباه آن‌ها را چیز دیگری تشخیص دهند.

بنابراین، اگر این مدل هوش مصنوعی با تصاویری از گاو به نحوی ویرایش شده تا شبیه به کیف دستی به نظر برسند آموزش ببیند، شروع به تولید تصاویر کیف دستی به جای گاو می‌کند، حتی زمانی که کاربر از مدل درخواست کند تصویری از یک گاو تولید کند. این نشان می‌دهد که چگونه آموزش دادن مدل‌های هوش مصنوعی با تصاویر ویرایش شده می‌تواند بر توانایی‌های تشخیص و تولید تصاویر آن‌ها تأثیر بگذارد و باعث خطا‌های بزرگ شود.

آخرین جبهه در نبرد پرشتاب برای جمع‌آوری داده‌ها

موضوع اصلی این است ابزار‌های هوش مصنوعی مولد که تصاویر را تولید می‌کنند چگونه آموزش دیده‌اند. مدل‌های آن‌ها با تصاویر و داده‌هایی آموزش دیده‌اند که از سراسر وب جمع‌آوری شده و شامل آثار هنری اصیل نیز می‌شود که هنرمندان بدون آگاهی یا قدرت تصمیم‌گیری قبلی در مورد این روش منتشر کرده‌اند. هنرمندان می‌گویند مدل‌های هوش مصنوعی که بر اساس آثار آن‌ها آموزش دیده‌اند، با آن‌ها رقابت کرده و باعث آسیب دیدن وضعیت اقتصادیشان می‌شوند.

جمع‌آوری داده‌ها شامل استفاده از برنامه‌های ساده‌ای به نام «ربات» می‌شود که اینترنت را جستجو کرده و داده‌ها را از وب‌سایت‌های عمومی کپی و به فرمت‌های دیگری تبدیل می‌کنند که برای فرد یا نهادی که جمع‌آوری را انجام می‌دهد مفید باشد.

جمع‌آوری داده‌ها یک روش رایج در اینترنت است و قبل از ظهور هوش مصنوعی مولد نیز به طور گسترده‌ای استفاده می‌شد. این تکنیک تقریباً مشابه روشی است که گوگل و بینگ برای جستجو و فهرست‌بندی وب‌سایت‌ها در نتایج جستجو استفاده می‌کنند.

این روش اکنون در کانون توجه هنرمندان و نویسندگانی قرار گرفته که به این معترض هستند که از آثارشان بدون اجازه صریح برای آموزش مدل‌های تجاری هوش مصنوعی استفاده شده است و هم‌اکنون در خطر جایگزین شدن توسط آن هوش مصنوعی هستند.

سازندگان مدل‌های هوش مصنوعی می‌گویند این روش برای آموزش مدل‌هایشان لازم است و البته قانونی است. آن‌ها به قانون «استفاده منصفانه» در آمریکا استفاده می‌کنند که می‌گوید آثار قبلی را می‌توان برای اهداف جدید و با تغییرات استفاده کرد.

شرکت‌هایی مانند OpenAI راه حلی را برای کسانی که نسبت به استفاده از محتوای تولیدی آن‌ها برای آموزش هوش مصنوعی راضی نیستند ارائه داده‌اند. آن‌ها می‌توانند از طریق افزودن یک کد به وب‌سایت‌های خود از جمع‌آوری اطلاعاتشان برای آموزش هوش مصنوعی جلوگیری کنند. اما تیم نایت‌شید گفته است که در گذشته این درخواست‌های انصراف اغلب از سوی شرکت‌ها نادیده گرفته شده است. تعهد شرکت‌ها به استفاده نکردن از محتوای وب‌سایت‌هایی که انصراف داده‌اند قابل تأیید و نظارت نیست و نمی‌توان با اطمینان بالایی افرادی را که این درخواست‌ها و دستورالعمل‌های عدم جمع‌آوری را نقض می‌کنند شناسایی کرد.

هدف نهایی Nightshade چیست؟

تیم Nightshade می‌گوید که اگر از این ابزار به درستی استفاده شود، می‌تواند مانع کسانی شود که حق نشر و دستورالعمل‌های عدم جمع‌آوری داده‌ها را نادیده می‌گیرند. این ابزار بدون اینکه بر شرکت‌های هوش مصنوعی خاصی تمرکز کند تلاش می‌کند هزینه کوچکی را بر این شرکت‌ها برای استفاده‌ی بدون مجوز از هر داده‌ای برای آموزش مدل‌هایشان اضافه کند.

هدف اصلی این است که با افزایش هزینه جمع‌آوری داده‌ها برای سازندگان مدل‌های هوش مصنوعی، آن‌ها وادار شوند به کسب مجوز از صاحبان حق نشر و هنرمندان به عنوان یک گزینه‌ی معقول‌تر فکر کنند.

نایت‌شید نمی‌تواند آثار هنری که قبلاً جمع‌آوری شده‌اند را تغییر دهد. این آثار همچنان برای آموزش مدل‌های هوش مصنوعی استفاده می‌شوند. استفاده از Nightshade بر روی آن‌ها در حال حاضر تنها زمانی مؤثر خواهد بو که این تصاویر دوباره جمع‌آوری شوند و برای آموزش نسخه جدیدی از مدل استفاده شوند.