این ابزار میتواند ابزارهای تولید تصویر با هوش مصنوعی را فریب دهد.
به گزارش گرداب، محققان ابزاری طراحی کردهاند که هنرمندان با استفاده از آن میتوانند مدلهای هوش مصنوعی را به نحوی فریب دهند که نتوانند از آثار و سبک هنری آنها تقلید کنند.
در سالهای اخیر و با پیشرفت ابزارهای هوش مصنوعی مولد یکی از دغدغههایی که ایجاد شده استفاده شرکتهای هوش مصنوعی از آثار دارای حق نشر برای آموزش مدلهای خود است. مدلهای هوش مصنوعی مولد نیازمند مقادیر عظیمی داده هستند تا از طریق «یادگیری ماشین» از آنها الگوگیری کرده و سپس با استفاده از این الگوها محتوای جدید تولید کنند.
از همین رو پروندههای قضائی متعددی در رابطه با شکایت صاحبان حق نشر (کپیرایت) از شرکتهای هوش مصنوعی تشکیل شده است که یکی از معروفترینهای آن پرونده شکایت روزنامه نیویورکتایمز از چتجیپیتی به خاطر استفاده غیرمجاز از متنهای این روزنامه برای آموزش مدل هوش مصنوعی است.
با این حال راههای دیگری نیز از سوی فعالان این حوزه برای جلوگیری از نقض حق نشر توسط هوش مصنوعی مورد امتحان قرار گرفته است. یکی از این ابزارها نایتشید (Nightshade) نام دارد که با ایجاد تغییراتی در جزئیات فایلهای تصویری میتواند بدون تغییر دادن محتوای کلی اثر، آن را به شکلی درآورد که مدلهای هوش مصنوعی مولد در تشخیص محتوای آن دچار اشتباه شده و نتوانند به شکل کارآمدی از آن برای آموزش درست بهره ببرند. این فرآیند که اصطلاحاً مسمومسازی (Poisoning) نامیده میشود توسط محققان دانشگاه شیکاگو ابداع شده و هماکنون Nightshade به شکل عمومی برای استفاده همگانی در دسترس قرار گرفته است.
تیم Nightshade میگوید که اگر این ابزار به درستی استفاده شود، میتواند مانعی در برابر کسانی شود که حقوق نشر (کپیرایت) و دستورالعملهای عدم جمعآوری دادهها را نادیده میگیرند. این ابزار میتواند کاری کند که مدلهای هوش مصنوعی در استفاده از هر تصویر برای آموزش مدل خود متقبل هزینهی زمانی و مالی بیشتری شوند تا در رفتارهای خود و نقض حقوق صاحبان آثار تجدید نظر کنند.