چالش محققان برای مقابله با تکنولوژی جعل عمیق

قدرتمندتر شدن فناوری هوش مصنوعی، مدیریت اطلاعات غلط و محافظت از عموم در مواجه با این اطلاعات بیش از هر زمان دیگری چالش برانگیز خواهد بود.

به گزارش خبرنگار گروه علم و فناوری ایسکانیوز، یک روزنامه نگار، تحقیقی ویدیویی از افشاگر ناشناسی دریافت می کند که در آن کاندیدای ریاست جمهوری به فعالیت غیرقانونی اعتراف کرده است. اما آیا این ویدئو واقعی است؟ روزنامه نگار فیلم را از طریق ابزاری تخصصی بررسی می کند و در میابد ویدئو آن چیزی نیست که به نظر می رسد. در حقیقت، این جعل عمیق است، ویدیویی که با استفاده از هوش مصنوعی با یادگیری عمیق ساخته شده است.

کارشناسان عرصه فناوری این روزها اصطلاح جدیدی با عنوان «دیپ فیک» را در صحبت های خود مطرح می کنند که در اصل از ترکیب عبارت های «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایل های صوتی و تصویری مورد استفاده قرار می گیرد که شکل ظاهری کاملا واقعی و قانع کننده دارند و البته به صورت جعلی ساخته می شوند.

 این فایل ها که به کمک نسل جدیدی از فناوری هوش مصنوعی ساخته می شوند، شخص مورد نظر را در تصویر ویدئویی به گونه ای نمایش می دهد که مخاطب تصور می کند فرد واقعی این صحبت ها را بیان کرده است و نکته مهم اینجاست که تصویر مذکور کاملا ساختگی و جعلی است.

محققان مؤسسه فناوری راچستر در حال مطالعه، تحقیق و بررسی تشخیص جعل عمیق و توسعه ابزاری برای روزنامه نگاران هستند. اگرچه این ابزار همه مشکلات را حل نخواهند کرد و فقط بخشی از مجموعه گسترده مبارزه با اطلاعات غلط هستند.

محققان دیگر، بر تفاوت هایی که تکنولوژی جعل عمیق در مقایسه با فیلم های واقعی داشته اند متمرکز شده اند. اغلب ویدئو هایی که با جعل عمیق ساخته شده اند  با ادغام فریم های جداگانه ایجاد می شوند. با در نظر گرفتن این امر، محققان داده های اساسی را از چهره ها در فریم های جداگانه در ویدیو استخراج و سپس آن ها را از طریق مجموعه ای از فریم های همزمان ردیابی می کنند. این امر موجب می شود ناهماهنگی در جریان اطلاعات از یک فریم به فریم دیگر تشخیص داده شود. این محققان رویکردی مشابه برای تشخیص جعل عمیق صوتی نیز به کار می گیرند.

در حالت ایده آل، ابزار تشخیص جعل عمیق باید در دسترس همه باشد اما این فناوری در مراحل اولیه توسعه و پیشرفت است و محققان نیازدارند قبل از انتشار گسترده،   آن ها را بهبود بخشند و از آن ها در برابر هکرها محافظت کنند. محققان معتقدند روزنامه نگاران در اولویتند زیرا آنها اولین خط دفاعی در برابر گسترش اطلاعات غلط هستند.

پیشتر محققان و شرکت‌های مختلفی بر روی گسترش و پیشرفت فناوری جعل عمیق کار کرده اند. برای مثال، محققان دانشگاه کارنگی ملون آمریکا سامانه‌ای را طراحی کرده‌اند که قادر است ویژگی‌هایی از جمله چهره فردی را از ویدیوی یک فرد به تصویر تلفیقی از فرد دیگری منتقل کند. شرکت Baidu چین و چند استارت آپ دیگر نیز یک سیستم تبدیل متن به صدا (voice cloning ) ارائه دادند که می‌تواند به عنوان یک رابط کاربری بین انسان و ماشین عمل کند.

انتهای پیام/

کد خبر: 1076176

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 0 + 0 =