به گزارش گروه علم و فناوری ایسکانیوز، شاید تا به امروز تمامی اخباری که درباره دستاوردهای هوش مصنوعی شنیده باشید در خصوص تولید ویدئوها و تصاویری هوشمندی بوده که به راحتی نمی شود آنها را از انسان های واقعی تشخیص داد اما اخیرا محققان در دانشگاه «میشیگان» توانستند طی تلاش هایی که انجام شده، راهی برای کشف ویدئوهای «جعل عمیق»به دست آورند.
مهندسان در همین رابطه نرم افزاری را طراحی کرده اند که می تواند قابلیت های کامپیوتری را برای تشخیص و پیگیری یک شئی در یک ویدئوکلیپ داشته باشد. نرم افزاری به نام «شبکه های حبابی» بهترین فریم ها از شخصیت های انسانی را برای آنالیز در نظر می گیرد. این نرم افزار در این رابطه از الگوریتمی کمک می گیرد که می تواند در کلیپ های دستکاری شده ای که توسط جلوه های تصویری بهبود بخشیده شده اند، (البته در خیلی از فضاهای باز موجود در فیلم ) تصاویر اضافه شده ای مانند اتومبیل های بدون سرنشین، وسایل خودکار و رباتیک و همچنین هواپیماهای بدون سرنشین را تشخیص دهد.
تشخیص این که شبکه حبابی دقیقا دنبال چه قاب های تصویری برای جعل می گردد، کمی مشکل است اما آزمایشات نشان داده اند که این تصاویر معمولا شامل سه فاکتور زیر بوده اند:
1. خیلی نزدیک به ابتدا یا پایان ویدئو نیستند.
2. بیشتر شبیه فریم های دیگر در کلیپ تصویری مورد نظر بوده اند.
3. یک نمای کلی از اشیاء در ویدئو نشان داده شده است.
«deepfake» یا «جعل عمیق»، ترکیبی از کلمههای « یادگیری عمیق» و «جعلی»، روشی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.
جعل عمیق تصاویر و فیلمهای موجود را بر روی تصاویر یا فیلمهایی با منابع اصلی قرار میدهد و از یک تکنیک یادگیری ماشین به نام «شبکه مولد تخاصمی» (GAN) استفاده میکند.
ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را در حال انجام یک کار و یا در موقعیتی خاص نشان میدهد که هرگز در دنیای واقعی اتفاق نیفتاده است.
چنین فیلمهای تقلبی میتواند برای تغییر کلمات یا حرکات یک فرد مورد استفاده قرار گیرد تا به نظر برسد چیزی را گفته که هرگز واقعا نگفته است.
به دلیل داشتن این قابلیتها، جعل عمیق میتواند برای ایجاد فیلمهای پورن افراد مشهور، پورن های انتقامی، اخبار جعلی و کلاهبرداریهای مخرب استفاده شود.
مشهورترین نمونه جعل عمیق که تاکنون مشاهده شده در مورد سخنرانی باراک اوباما در زمان ریاست جمهوریش درباره تروریسم، موقعیت های شغلی و ... بود که از طریق تطبیق فایل های صوتی جعلی بر روی تصویر صورت وی در ویدئوهای واقعی درست شده بود.
دولت آمریکا اخیرا نگرانی عمیق خود را در رابطه با تصاویر و ویدئوهای جعلی که دستکاری شده و در اینترنت و شبکه های اجتماعی انتشار می یابد، ابراز داشته است.
انتهای پیام/