دیپ فیک (deepfake) دیگر تهدید بزرگی در فیسبوک نیست اما این شرکت همچنان در حال بررسی این فناوری است تا از تهدیداتی که ممکن است در آینده به وجود بیایند، جلوگیری کند.
به گزارش گرداب، فیسبوک اخیراً با اعضای دانشگاه ایالتی میشیگان همکاری کرده تا راهی برای معکوس کردن مهندسی دیپ فیک ایجاد کنند؛ یعنی تجزیه و تحلیل تصاویر تولید شده توسط هوش مصنوعی برای شناسایی ویژگیهای فردی که این ماشین را ایجاد کرده است.
این کار میتواند به فیسبوک کمک کند تا افرادی را که در شبکههای اجتماعی مختلف از دیپ فیک استفاده میکنند، شناسایی کند. شاید اطلاعات حاصل از این فناوری کاملاً درست و دقیق نباشد اما همانند پورنوگرافی غیرقانونی و جعلی است که متاسفانه از فناوری دیپ فیک در این زمینه بسیار استفاده میشود. در حال حاضر، متخصصان در حال بررسی این فناوری هستند و مدتی طول خواهد کشید تا به مرحلهی اجرا برسد.
متخصصان در مطالعات قبلی توانستند نوع هوش مصنوعیای که دیپ فیک را ایجاد میکند، شناسایی کنند اما در مطالعهی فعلی با مدیریت Vishal Asnani از دانشگاه ایالتی میشیگان، یک قدم فراتر رفته و جزئیات و ویژگیهای مهندسی مدلهای ناشناخته را بررسی میکنند. این ویژگیها که ابرپارامتر (hyperparameter) نامیده میشوند، مانند قطعات موجود در یک موتور کار میکنند و برای هر ماشین سازندهی مدل تنظیم میشوند. در نهایت، روی تصویر تمام شده، یک رد منحصر به فرد به جا میگذارند که میتوان از آن برای شناسایی منبع استفاده کرد.
محقق فیسبوک، Tal Hassner، میگوید که شناسایی ویژگیهای مدلهای ناشناخته مهم است، چون نرمافزار دیپ فیک را به راحتی میتوان شخصیسازی کرد. با این کار، مجرمان میتوانند آثار خود را از محققانی که سعی در ردیابی فعالیتهای آنان دارند، مخفی کنند. Hassner در ادامه میگوید: «بیایید فرض کنیم که یک مجرم در حال ساخت دیپ فیکهای مختلف زیادی است و آنها را در پلتفرمهای مختلف برای کاربران مختلف بارگذاری میکند. اگر این یک مدل هوش مصنوعی جدید باشد که هیچ کس قبلاً آن را ندیده، با توجه به دانستههای قبلی نمیتوانستیم نظری در این باره بدهیم.
اما امروزه میتوانیم بگوییم که یک تصویر بارگذاری شده در یک پلتفرم با تصویر دیگری که در پلتفرم دیگری بارگذاری شده، همه از یک مدل ساخته شدهاند. اگر بتوانیم به لپتاپ یا کامپیوتری که با آن این محتوا تولید شده دسترسی پیدا کنیم، میتوانیم مجرم اصلی را دستگیر کنیم.»
او با پیدا کردن الگوهای موجود در تصویر نهایی، کاری شبیه به تکنیکهای پزشکی قانونی انجام میدهد و میتواند تشخیص بدهد که از چه مدل دوربینی برای گرفتن عکس استفاده شده است. او میگوید: «هر کسی نمیتواند دوربین مخصوصی برای خود بسازد. فقط افرادی با تجربه و توانایی کافی با سیستمهای استاندارد میتوانند مدلهایی شخصی برای خود بسازند.»
نه تنها الگوریتم حاصله میتواند ویژگیهای یک مدل ساخته شده را شناسایی کند، بلکه میتواند تشخیص دهد که کدام مدل شناخته شده این تصویر را ایجاد کرده و آیا این تصویر جعلی است یا خیر. اما باز هم باید توجه داشت که اطلاعات حاصل هم کاملاً قابل اطمینان نیستند. وقتی فیسبوک در سال 2020 مسابقهای برای شناسایی دیپ فیک گذاشت، الگوریتم برنده فقط توانست در 65.18% از مواقع ویدیوهای دستکاری شده را شناسایی کند. محققان در آن زمان گفتند که شناسایی دیپ فیک با استفاده از الگوریتم چندان راحت نیست.
بخشی از آن به وسیع بودن عرصهی هوش مصنوعی برمیگردد. روزانه تکنیکهای جدیدی ایجاد میشوند و تقریباً غیرممکن است که با فیلترهای موجود آنها را شناسایی کرد. افرادی که در این عرصه فعالیت دارند به طور کامل از نحوهی عملکرد آن آگاه هستند و وقتی از Hassner پرسیده شد که آیا با انتشار این الگوریتم جدید برای ردیابی، میتوان تحقیقاتی انجام داد که روشهای فعلی را دور زده و قابل شناسایی نباشد؟ او گفت که چنین انتظاری را دارد.