فیسبوک در حال یافتن روشی جدید برای ردیابی منبع سازنده‌ی دیپ فیک

فیسبوک در حال یافتن روشی جدید برای ردیابی منبع سازنده‌ی دیپ فیک
تاریخ انتشار : ۰۸ تير ۱۴۰۰

دیپ فیک‌ (deepfake) دیگر تهدید بزرگی در فیسبوک نیست اما این شرکت هم‌چنان در حال بررسی این فناوری است تا از تهدیداتی که ممکن است در آینده به وجود بیایند، جلوگیری کند.

به گزارش گرداب، فیسبوک اخیراً با اعضای دانشگاه ایالتی میشیگان همکاری کرده تا راهی برای معکوس کردن مهندسی دیپ‌ فیک ایجاد کنند؛ یعنی تجزیه و تحلیل تصاویر تولید شده توسط هوش مصنوعی برای شناسایی ویژگی‌های فردی که این ماشین را ایجاد کرده است.

این کار می‌تواند به فیسبوک کمک کند تا افرادی را که در شبکه‌های اجتماعی مختلف از دیپ فیک استفاده می‌کنند، شناسایی کند. شاید اطلاعات حاصل از این فناوری کاملاً درست و دقیق نباشد اما همانند پورنوگرافی غیرقانونی و جعلی است که متاسفانه از فناوری دیپ فیک در این زمینه بسیار استفاده می‌شود. در حال حاضر، متخصصان در حال بررسی این فناوری هستند و مدتی طول خواهد کشید تا به مرحله‌ی اجرا برسد.

متخصصان در مطالعات قبلی توانستند نوع هوش مصنوعی‌ای که دیپ فیک را ایجاد می‌کند، شناسایی کنند اما در مطالعه‌ی فعلی با مدیریت Vishal Asnani از دانشگاه ایالتی میشیگان، یک قدم فراتر رفته و جزئیات و ویژگی‌های مهندسی مدل‌های ناشناخته را بررسی می‌کنند. این ویژگی‌ها که ابرپارامتر (hyperparameter) نامیده می‌شوند، مانند قطعات موجود در یک موتور کار می‌کنند و برای هر ماشین سازنده‌ی مدل تنظیم می‌شوند. در نهایت، روی تصویر تمام شده، یک رد منحصر به فرد به جا می‌گذارند که می‌توان از آن برای شناسایی منبع استفاده کرد.

محقق فیسبوک، Tal Hassner، می‌گوید که شناسایی ویژگیهای مدل‌های ناشناخته مهم است، چون نرم‌افزار دیپ فیک را به راحتی می‌توان شخصی‌سازی کرد. با این کار، مجرمان می‌توانند آثار خود را از محققانی که سعی در ردیابی فعالیت‌های آنان دارند، مخفی کنند. Hassner در ادامه می‌گوید: «بیایید فرض کنیم که یک مجرم در حال ساخت دیپ فیک‌های مختلف زیادی است و آن‌ها را در پلتفرم‌های مختلف برای کاربران مختلف بارگذاری می‌کند. اگر این یک مدل هوش مصنوعی‌ جدید باشد که هیچ کس قبلاً آن را ندیده، با توجه به دانسته‌های قبلی نمی‌توانستیم نظری در این باره بدهیم.

فیسبوک در حال یافتن روشی جدید برای ردیابی منبع سازنده‌ی دیپ فیک
اما امروزه می‌توانیم بگوییم که یک تصویر بارگذاری شده در یک پلتفرم با تصویر دیگری که در پلتفرم دیگری بارگذاری شده، همه از یک مدل ساخته شده‌اند. اگر بتوانیم به لپ‌تاپ یا کامپیوتری که با آن این محتوا تولید شده دسترسی پیدا کنیم، می‌توانیم مجرم اصلی را دستگیر کنیم.»

او با پیدا کردن الگوهای موجود در تصویر نهایی، کاری شبیه به تکنیک‌های پزشکی قانونی انجام می‌دهد و می‌تواند تشخیص بدهد که از چه مدل دوربینی برای گرفتن عکس استفاده شده است. او می‌گوید: «هر کسی نمی‌تواند دوربین مخصوصی برای خود بسازد. فقط افرادی با تجربه‌ و توانایی کافی با سیستم‌های استاندارد می‌توانند مدل‌هایی شخصی برای خود بسازند.»

نه تنها الگوریتم حاصله می‌تواند ویژگی‌های یک مدل ساخته شده را شناسایی کند، بلکه می‌تواند تشخیص دهد که کدام مدل شناخته شده این تصویر را ایجاد کرده و آیا این تصویر جعلی است یا خیر. اما باز هم باید توجه داشت که اطلاعات حاصل هم کاملاً قابل اطمینان نیستند. وقتی فیسبوک در سال 2020 مسابقه‌ای برای شناسایی دیپ فیک گذاشت، الگوریتم برنده فقط توانست در 65.18% از مواقع ویدیوهای دستکاری شده را شناسایی کند. محققان در آن زمان گفتند که شناسایی دیپ فیک با استفاده از الگوریتم چندان راحت نیست.

بخشی از آن به وسیع بودن عرصه‌ی هوش مصنوعی برمی‌گردد. روزانه تکنیک‌های جدیدی ایجاد می‌شوند و تقریباً غیرممکن است که با فیلترهای موجود آن‌ها را شناسایی کرد. افرادی که در این عرصه فعالیت دارند به طور کامل از نحوه‌ی عملکرد آن آگاه هستند و وقتی از Hassner پرسیده شد که آیا با انتشار این الگوریتم جدید برای ردیابی، می‌توان تحقیقاتی انجام داد که روش‌های فعلی را دور زده و قابل شناسایی نباشد؟ او گفت که چنین انتظاری را دارد.