طراحی ابزاری برای گول زدن هوش مصنوعی مولد

طراحی ابزاری برای گول زدن هوش مصنوعی مولد
تاریخ انتشار : ۰۷ بهمن ۱۴۰۲

این ابزار می‌تواند ابزار‌های تولید تصویر با هوش مصنوعی را فریب دهد.

به گزارش گرداب، محققان ابزاری طراحی کرده‌اند که هنرمندان با استفاده از آن می‌توانند مدل‌های هوش مصنوعی را به نحوی فریب دهند که نتوانند از آثار و سبک هنری آن‌ها تقلید کنند.

در سال‌های اخیر و با پیشرفت ابزار‌های هوش مصنوعی مولد یکی از دغدغه‌هایی که ایجاد شده استفاده شرکت‌های هوش مصنوعی از آثار دارای حق نشر برای آموزش مدل‌های خود است. مدل‌های هوش مصنوعی مولد نیازمند مقادیر عظیمی داده هستند تا از طریق «یادگیری ماشین» از آن‌ها الگوگیری کرده و سپس با استفاده از این الگو‌ها محتوای جدید تولید کنند.

از همین رو پرونده‌های قضائی متعددی در رابطه با شکایت صاحبان حق نشر (کپی‌رایت) از شرکت‌های هوش مصنوعی تشکیل شده است که یکی از معروف‌ترین‌های آن پرونده شکایت روزنامه نیویورک‌تایمز از چت‌جی‌پی‌تی به خاطر استفاده غیرمجاز از متن‌های این روزنامه برای آموزش مدل هوش مصنوعی است.

با این حال راه‌های دیگری نیز از سوی فعالان این حوزه برای جلوگیری از نقض حق نشر توسط هوش مصنوعی مورد امتحان قرار گرفته است. یکی از این ابزار‌ها نایت‌شید (Nightshade) نام دارد که با ایجاد تغییراتی در جزئیات فایل‌های تصویری می‌تواند بدون تغییر دادن محتوای کلی اثر، آن را به شکلی درآورد که مدل‌های هوش مصنوعی مولد در تشخیص محتوای آن دچار اشتباه شده و نتوانند به شکل کارآمدی از آن برای آموزش درست بهره ببرند. این فرآیند که اصطلاحاً مسموم‌سازی (Poisoning) نامیده می‌شود توسط محققان دانشگاه شیکاگو ابداع شده و هم‌اکنون Nightshade به شکل عمومی برای استفاده همگانی در دسترس قرار گرفته است.

تیم Nightshade می‌گوید که اگر این ابزار به درستی استفاده شود، می‌تواند مانعی در برابر کسانی شود که حقوق نشر (کپی‌رایت) و دستورالعمل‌های عدم جمع‌آوری داده‌ها را نادیده می‌گیرند. این ابزار می‌تواند کاری کند که مدل‌های هوش مصنوعی در استفاده از هر تصویر برای آموزش مدل خود متقبل هزینه‌ی زمانی و مالی بیشتری شوند تا در رفتار‌های خود و نقض حقوق صاحبان آثار تجدید نظر کنند.