در ماه مارس، اف بی آی گزارشی منتشر کرد که در آن اعلام شده بود که تقریبا قطعی است که عوامل مجرمانه از «محتوای مصنوعی» برای عملیاتهای نفوذ خارجی در طی ۱۲-۱۸ ماه آینده استفاده کنند.
به گزارش گرداب این محتوای مصنوعی شامل صوت و تصویر جعل عمیق است که یا به تمامی توسط هوش مصنوعی یا یادگیری ماشین ساخته شده و یا توسط آنها تغییراتی در آن داده شده است تا به شکل متقاعدکنندهای شخصی را در حال انجام کاری و یا گفتن چیزی بازنمایی کنند که فیالواقع انجام نشده است.
در طی ماههای اخیر خبرهایی پیرامون مدیرعامل شرکتی منتشر شده است که صدای او بهطور متقاعدکنندهای تقلید شده تا یک مبادله به ارزش ۲۴۳ هزار دلار را تایید کند. امروزه پس از گذشت بیش از یک سال از بحران کرونا، نرمافزارهایی همچون زوم که در طی دورکاری مورد توجه قرار میگیرد، منبع عظیمی از صدا و تصویر را فراهم کرده که میتواند در سامانههای یادگیری ماشین استفاده شود تا تقلیدی متقاعدکننده ایجاد کنند. هکرها به این مسئله توجه داشتهاند. فناوری جعل عمیق (DeepFake) در دارک وب بسیار مورد توجه بوده است و هکرها مسلماً پشت این قضیه هستند.
موسسه Recorded Future که تخصصش در واکنش به حوادث سایبری است، در گزارش خود اعلام کرده که هکرها به سراغ دارک وب رفتهاند تا خدمات سفارشیشده و آموزشهایی ارائه کنند که شامل فناوریهای جعل عمیق صوتی و تصویریای میشود که با هدف رد شدن و شکست دادن اقدامات امنیتی طراحی شده است. همانطور که درسالهای اخیر باجافزارها تکامل یافتند و مدلهای خدمات باجافزاری (RaaS) ارائه شدند، در حال حاضر ما شاهد مشاهده همین روند در فناوری جعل عمیق هستیم.
این اطلاعات از موسسه Recorded Future نشان میدهد که چگونه هکرها یک مرحله جلوتر هستند از هشداری که اف بی آی پیرامون نفوذ مبتنی بر جعل عمیق در آغاز این سال دادند. هدف جدید هکرها این است که از صدا و تصویر مصنوعی بهگونهای استفاده کنند که بتوانند نظارتهای امنیتی را دور بزنند. افزون بر این هکرها از دارک وب و انجمنها و پیامرسانهایی استفاده میکنند تا ابزارهایی که بهترین عملکرد در شیوهها و فناوریهای مبتنی بر جعل عمیق دارند را با هدف در معرض خطر قرار دادن سازمانها و شرکتها، به اشتراک بگذارند.
منبع: venturebeat