ایسکانیوز گزارش می دهد؛

مچگیری از «جعل عمیق»

شنبه 22 تیر 1398 - 19:04
کد مطلب: 1020555
[ug

شاید تا به امروز تمامی اخباری که درباره دستاوردهای هوش مصنوعی شنیده اید در خصوص تولید ویدئوها و تصاویری هوشمند بوده که به راحتی نمی توان آنها را از انسان های واقعی تشخیص داد اما اخیرا محققان در دانشگاه «میشیگان» توانسته اند راهی برای کشف ویدئوهای «جعل عمیق» به دست بیاورند.

به گزارش گروه علم و فناوری ایسکانیوز، شاید تا به امروز تمامی اخباری که درباره دستاوردهای هوش مصنوعی شنیده باشید در خصوص تولید ویدئوها و تصاویری هوشمندی بوده که به راحتی نمی شود آنها را از انسان های واقعی تشخیص داد اما اخیرا محققان در دانشگاه «میشیگان» توانستند طی تلاش هایی که انجام شده، راهی برای کشف ویدئوهای «جعل عمیق»به دست آورند.

مهندسان در همین رابطه نرم افزاری را طراحی کرده اند که می تواند قابلیت های کامپیوتری را برای تشخیص و پیگیری یک شئی در یک ویدئوکلیپ داشته باشد. نرم افزاری به نام «شبکه های حبابی» بهترین فریم ها از شخصیت های انسانی را برای آنالیز در نظر می گیرد. این نرم افزار در این رابطه از الگوریتمی کمک می گیرد که می تواند در کلیپ های دستکاری شده ای که توسط جلوه های تصویری بهبود بخشیده شده اند، (البته در خیلی از فضاهای باز موجود در فیلم ) تصاویر اضافه شده ای مانند اتومبیل های بدون سرنشین، وسایل خودکار و رباتیک و همچنین هواپیماهای بدون سرنشین را تشخیص دهد.

تشخیص این که شبکه حبابی دقیقا دنبال چه قاب های تصویری برای جعل می گردد، کمی مشکل است اما آزمایشات نشان داده اند که این تصاویر معمولا شامل سه فاکتور زیر بوده اند:

1. خیلی نزدیک به ابتدا یا پایان ویدئو نیستند.

2. بیشتر شبیه فریم های دیگر در کلیپ تصویری مورد نظر بوده اند.

3. یک نمای کلی از اشیاء در ویدئو نشان داده شده است.

«deepfake» یا «جعل عمیق»، ترکیبی از کلمه‌های « یادگیری عمیق» و «جعلی»، روشی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است.

جعل عمیق تصاویر و فیلم‌های موجود را بر روی تصاویر یا فیلم‌هایی با منابع اصلی قرار می‌دهد و از یک تکنیک یادگیری ماشین به نام «شبکه مولد تخاصمی» (GAN) استفاده می‌کند.

ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را در حال انجام یک کار و یا در موقعیتی خاص نشان می‌دهد که هرگز در دنیای واقعی اتفاق نیفتاده است.

چنین فیلم‌های تقلبی می‌تواند برای تغییر کلمات یا حرکات یک فرد مورد استفاده قرار گیرد تا به نظر برسد چیزی را گفته که هرگز واقعا نگفته است.

به دلیل داشتن این قابلیت‌ها، جعل عمیق می‌تواند برای ایجاد فیلم‌های پورن افراد مشهور، پورن های انتقامی، اخبار جعلی و کلاهبرداری‌های مخرب استفاده شود.

مشهورترین نمونه جعل عمیق که تاکنون مشاهده شده در مورد سخنرانی باراک اوباما در زمان ریاست جمهوریش درباره تروریسم، موقعیت های شغلی و ... بود که از طریق تطبیق فایل های صوتی جعلی بر روی تصویر صورت وی در ویدئوهای واقعی درست شده بود.

دولت آمریکا اخیرا نگرانی عمیق خود را در رابطه با تصاویر و ویدئوهای جعلی که دستکاری شده و در اینترنت و شبکه های اجتماعی انتشار می یابد، ابراز داشته است.

انتهای پیام/

159 / 159

نظرات

1- لطفا نظرات خود را با حروف فارسی تایپ کنید.
2- نظرات حاوی مطالب توهین‌آمیز یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران و مغایر با قوانین کشور منتشر نمی‌شود.
3- نظرات پس از تایید منتشر می‌شود.

ایسکاTV

اخبار پر بازدید

آخرین اخبار