کد خبر : 185551
تاریخ انتشار : چهارشنبه 5 ژانویه 2022 - 18:28
-

آشکارسازهای “دیپ‌فیک” هم گول می‌خورند

آشکارسازهای “دیپ‌فیک” هم گول می‌خورند

دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری “دیپ‌فیک”(deepfake) به معنای “جعل عمیق” ثابت کردند که می‌توان آنها را نیز فریب داد. به گزارش ایسنا و به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند “جعل عمیق” را تشخیص دهند، در تلاش هستند تا از استفاده از

آشکارسازهای "دیپ‌فیک" هم گول می‌خورند

دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری “دیپ‌فیک”(deepfake) به معنای “جعل عمیق” ثابت کردند که می‌توان آنها را نیز فریب داد.

به گزارش ایسنا و به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند “جعل عمیق” را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.

اکنون گروهی از دانشمندان علوم رایانه از دانشگاه “سن دیگو” هشدار داده‌اند که آشکارسازهای “جعل عمیق” هنوز هم با وجود این ابزارها قابل فریب دادن هستند.

این تیم در کنفرانس بینش رایانه ای “WACV 2021” که به صورت آنلاین برگزار شد، با درج ورودی‌هایی در هر فریم ویدیویی نشان داد که چگونه می‌توان ابزارهای شناسایی “جعل عمیق” را فریب داد.

دانشمندان در اطلاعیه خود توضیح دادند که این ورودی‌ها تصاویر دستکاری شده‌ای هستند که می‌توانند باعث اشتباه سیستم‌های هوش مصنوعی شوند. اغلب آشکارسازها با ردیابی چهره در فیلم‌ها و ارسال داده‌های برشی از چهره به یک شبکه عصبی کار می‌کنند. فیلم‌های جعل عمیق قانع کننده هستند، زیرا با یک کپی از چهره یک شخص واقعی دستکاری شده‌اند، اما سیستم ردیاب یا آشکارساز می‌تواند با مشاهده عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمی‌رسند، صحت ویدیو را تشخیص دهد.

اما دانشمندان دریافتند که با اعمال ورودی‌هایی از چهره و قرار دادن آنها در هر فریم از فیلم می‌توان حتی پیشرفته‌ترین آشکارسازهای جعل عمیق را نیز فریب داد. به علاوه، روشی که آنها ابداع کردند، حتی برای فیلم‌های فشرده نیز کارایی دارد.

بنابراین توسعه دهندگان چگونه می‌توانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه می‌کنند از “آموزش متخاصم” استفاده شود. در این حالت یک نمونه جعلی تطبیقی ​​مرتباً نسخه جعلی ایجاد می‌کند که می‌تواند آشکارساز را آموزش دهد تا آشکارساز بتواند در تشخیص تصاویر غیر معتبر پیشرفت کند.

محققان در مقاله خود نوشتند: برای استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال می‌کنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی ​​که از همه چیز آگاه است و قصد دارد این دفاع‌ها را خنثی کند، ضروری است.

منبع:ایسنا

برچسب ها :

ناموجود
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : 0
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

اخبار سلامت

دیزل ژنراتور

صیغه نامه برای هتل

قیمت فنس

پریفرم

سایت مدیر اکسپرت

خرید انواع هدایای تبلیغاتی خلاقانه

خرید دتکتور گاز از نماینده رسمی ایران

مبانی حقوق مهندسی

خرید صندل عمده

نحوه محاسبه اقساط

قیمت خرید تلویزیون زیر 5میلیون

قیمت فنس

صندلی آرایشگاه

زير نويس ساز

لمینت متحرک دندان

جعبه سازی

اهمیت استفاده از رپورتاژ

بهترین صرافی های ارزدیجیتال

New punjabi songs

سامانه خودنویس

آزمایشات طب کار بدو استخدام

گن بعد از جراحی ژینکوماستی

آموزش خرید بیت کوین

مرجع خرید و فروش هماتیت

سازمان امور مالیاتی

بهترین فیلم های 2023

تقویت انتن موبایل

مانیتور دنا

شیشه ماشین

عرضه کننده سیم خاردار،فنس،ورق های شیروانی با قیمت عمده

خرید اکانت کلش

تشک دو نفره

دکتر علی پرند

https://nipoto.com/ethereum

شرکت کیمیا همرنگ

خرید تابلو برق

اسرارالشفاء

خرید رپورتاژ آگهی

مایکروسافت

  شیائومی 

 سامسونگ 

 گوشی 

 مارک  

اینتل 

 گواهینامه

  قرمز  گورمن

  تبلت  آیفون 

 طراحی

  لایکا  تایوان 

 یوتیوب  

دوربین

  اندروید  

تاشو  

چین

  گلکسی

  پیکسل 

 ساعت 

 ای‌بی 

 هوشمند 

 سطح  

جدید  

شرکت 

 معرفی  

تجاری

  طرح