کلاهبردارهای تلفنی در حال حاضر ارتشی از نیروی کار ارزان را برای ایجاد یک مرکز تماس تلفنی در اختیار دارند. این افراد زمان زیادی را صرف تلفن زدن به افراد مختلف میکنند. هوش مصنوعی میتواند کار این کلاهبردارها را هم تغییر بدهد که اگر چنین شود، میتوان تأثیر گستردهتر هوش مصنوعی در توسعه این کلاهبرداریها را دید.
کد خبر: ۳۷۹۴۹ تاریخ انتشار : ۱۴۰۲/۱۲/۱۴
علی رغم وعده پلتفرمهای رسانههای اجتماعی غربی برای مبارزه با انتشار اخبار جعلی، با پیشرفت خیرهکننده نرمافزارهای کاربردی هوش مصنوعی در یک سال اخیر، بسیاری از کارشناسان بر این باورند که امسال حجم اخبار جعلی و اصطلاحا دیپفیک در مبارزات انتخاباتی آمریکا احتمالا بسیار بیشتر از قبل خواهد بود.
کد خبر: ۳۷۹۰۹ تاریخ انتشار : ۱۴۰۲/۱۲/۰۸
کارشناسان هوش مصنوعی و پیشگامان این حوزه در نامهای سرگشاده با تاکید بر ریسکهای احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری شدند.
کد خبر: ۳۷۸۸۱ تاریخ انتشار : ۱۴۰۲/۱۲/۰۵
در آستانه انتخابات اروپا؛
قانونگذاران اتحادیه اروپا به دنبال مقابله با تهدیدات هوش مصنوعی هستند.
کد خبر: ۳۷۸۰۰ تاریخ انتشار : ۱۴۰۲/۱۱/۲۱
دیپ فیک صدای رییس جمهور آمریکا دردسرساز شده است. تماسهای رباتیک با این صوت از حدود ۲۵ هزار رای دهنده یک ایالت خواسته تا در انتخابات مقدماتی شرکت نکنند.
کد خبر: ۳۷۷۹۲ تاریخ انتشار : ۱۴۰۲/۱۱/۱۸
کلاهبرداران با استفاده از دیپفیک، مدیر مالی یک شرکت بینالمللی در هنگکنگ را فریب دادند و توانستند ۲۵.۶ میلیون دلار سرقت کنند. این کلاهبرداران در یک کنفرانس ویدیویی با هویتی جعلی حضور داشتند و تنها مدیر مالی این شرکت شخص واقعی در این جلسه بود.
کد خبر: ۳۷۷۷۶ تاریخ انتشار : ۱۴۰۲/۱۱/۱۷
هند تصمیم دارد قوانینی برای نظارت بر « دیپ فیک » وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.
کد خبر: ۳۷۲۲۴ تاریخ انتشار : ۱۴۰۲/۰۹/۰۴
هوش مصنوعی به شیوههای گوناگون میتواند در زمینه امنیت سایبری به کار گرفته شود.
کد خبر: ۳۶۷۲۱ تاریخ انتشار : ۱۴۰۲/۰۶/۲۰
به گفته شرکت مکآفی (McAfee)، فناوری هوش مصنوعی به افزایش کلاهبرداریهای صوتی آنلاین دامن میزند و تنها سه ثانیه از صدای فرد برای شبیهسازی صدای او کافی است
کد خبر: ۳۶۵۹۴ تاریخ انتشار : ۱۴۰۲/۰۶/۰۴
کمیسیون فدرال انتخابات آمریکا (FEC) مشغول بررسی دادخواستی است که از این سازمان میخواهد تبلیغات سیاسی که با استفاده از هوش مصنوعی کاندیدای رقیب را تخریب میکند، قانونمند سازد.
کد خبر: ۳۶۵۰۰ تاریخ انتشار : ۱۴۰۲/۰۵/۲۵
خبرگزاری مهر در گزارشی با اشاره به توسعه روزافزون هوش مصنوعی مولد، به موضوع چالش استفاده از این فناوری برای انتشار اطلاعات نادرست و ساخت تصاویر ثابت و متحرک دیپ فیک پرداخته است.
کد خبر: ۳۶۲۱۷ تاریخ انتشار : ۱۴۰۲/۰۴/۲۸
شرکت روسی VisionLabs ابزاری برای شناسایی محتوای جعل عمیق (دیپفیک) توسعه داده است.
کد خبر: ۳۶۰۰۶ تاریخ انتشار : ۱۴۰۲/۰۴/۱۰
دیپ فیک (deepfake) دیگر تهدید بزرگی در فیسبوک نیست اما این شرکت همچنان در حال بررسی این فناوری است تا از تهدیداتی که ممکن است در آینده به وجود بیایند، جلوگیری کند.
کد خبر: ۳۰۵۲۷ تاریخ انتشار : ۱۴۰۰/۰۴/۰۸
با پیشرفت فناوری نوین دیپ فیک ، کاربران این روزها بیش از همیشه در فضای مجازی احساس خطر می کنند.
کد خبر: ۲۹۵۲۱ تاریخ انتشار : ۱۳۹۹/۰۸/۲۶
گسترش انتشار اطلاعات غلط و پیامهای نفرتآمیز و انواع دیگر محتوای مخرب در شبکههای اجتماعی از نگرانیهای اصلی جوامع در سالهای اخیر بوده است.
کد خبر: ۲۹۳۰۳ تاریخ انتشار : ۱۳۹۸/۱۱/۲۰
۲۰۱۹ هنوز تمام نشده اما با در نظر داشتن شمار حملات سایبری رخ داده در جریان آن میتوان حدس زد که امسال رکورددار سال های پیشین از نظر درز اطلاعات ناامنی سایبری لقب بگیرد.
کد خبر: ۲۸۹۹۵ تاریخ انتشار : ۱۳۹۸/۰۷/۱۳
با الگوریتم جدید تغییر چهره براساس دیپ فیک ؛ دیگر مرزی میان کذب و حقیقت باقی نمیماند.
کد خبر: ۲۸۸۷۶ تاریخ انتشار : ۱۳۹۸/۰۶/۱۷
با تقلید صدای مدیر!
یک کلاهبردار با استفاده از فناوری« دیپ فیک » و نرم افزار هوش مصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
کد خبر: ۲۸۸۶۹ تاریخ انتشار : ۱۳۹۸/۰۶/۱۴
جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند. اکنون این تهدید جدی گرفته شده است.
کد خبر: ۲۸۶۴۳ تاریخ انتشار : ۱۳۹۸/۰۴/۰۵