به گزارش گروه علم و فناوری ایسکانیوز، محققان «موسسه اطلاعات علمی ایالات متحده آمریکا» (USC ISI) ابزار جدیدی را ایجاد کرده اند که به تلاش ها برای مقابله با «جعل عمیق» کمک می کند. بر اساس مقاله منتشر شده توسط «Computer Vision Foundation»، این ابزار روی حرکات ظریف چهره و سر و همچنین مصنوعات در فایل تمرکز و جعلی بودن ویدئو را تعیین میکند. این ابزار فیلمهای کامپیوتری را با دقت 96 درصد درست شناسایی میکند.
مدل های تشخیص عمیق استاندارد فیلم ها را به منظور نشان دادن هر گونه نشانه ای از دستکاری فریم به فریم تجزیه و تحلیل می کنند. تکنیک جدید ایجاد شده توسط محققان USC نیازمند قدرت و زمان محاسباتی بسیار کم است.
این سیستم در ابتدا کل یک ویدیو را بررسی می کند که این امر پردازش اطلاعات را بسیار سریع تر فراهم میکند، سپس فریمهای ویدئویی را به یکدیگر متصل و هرگونه اختلاف در نحوه حرکت موضوع فیلم را جستجو میکند.
این اختلاف ممکن است در نحوه حرکت پلک افراد یا یک جنبش عجیب و غریب در طول حرکت باشد. محققان از این موارد به عنوان «امضاهای نرم بیومتریک» نام می برند.
«دیپ فیک» یا «جعل عمیق»، ترکیبی از کلمههای یادگیری عمیق و جعلی، یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. جعل عمیق تصاویر و فیلمهای موجود را روی تصاویر یا فیلمهای منبع قرار میدهد و از یک تکنیک یادگیری ماشین به نام «شبکه مولد تخاصمی» (GAN) استفاده میکند. ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
انتهای پیام/