فناوری دیپ فیک و فناوری deepfake

دیپ فیک Deepfake، یک فناوری جنجال برانگیز! دیگر به چشمانتان هم اعتماد نکنید!

سلام بر همراهان همیشگی پست های آموزشی و فناوری وبسایت رسمی IDH. در این مقاله قصد داریم، به بررسی جعل تصویر و فناوری دیپ فیک بپردازیم و ببینیم اصولا فناوری Deepfake چیست؟

باراک اوباما می گوید دونالد ترامپ فردی حقیر و غیرمنطقی است!

ویدئوی حاوی این جمله در فضای مجازی دست به دست می چرخد.

رئیس جمهور سابق آمریکا، نه تنها آن جمله، بلکه آن ویدوئو را تکذیب می کند.

اوباما اظهار می کند، من در آن ویدئو صحبت نکرده ام، اما مردم با چشمهای خود او را دیده اند و با گوش های خود صحبت هایش را شنیده اند.

پای Deepfake در میان است!

ویدئوی جعلی از سیاستمداران، هنرمندان و حتی افراد معمولی ساخته می شود و همه آن را باور می کنند.

با ما همراه باشید تا در ادامه ببینیم دیپ فیک Deepfake چگونه هیچ مرزی بین حقیقت و دروغ باقی نمی گذارد و  قربانی می سازد!

دیپ فیک (Deepfake) چیست؟

اصطلاح Deepfake ترکیبی از دو واژه Deep (عمیق) و Fake (جعلی) می باشد که می توان آن را دروغی عمیق ترجمه کرد.

دروغی عمیق تر از آنچه که تصورش را بکنید!

 Deepfake به طور شگفت انگیزی “جعل” را به جای “اصل” و حتی “اصل” را به جای “جعل” جا میزند! اما چگونه؟

تکنیک Deepfake، تکنیکی جدید و خلاقانه مبتنی بر هوش مصنوعی است که به واسطه ی آن می توان محتوای ویدئویی را به گونه ای دروغین تغییر داد که واقع گرایانه به نظر برسد.

تصاویر و صداهای جعلی با فیلم اصلی به گونه ای تلفیق می شوند که قابل تشخیص نباشد.

با استفاده از سیستم پردازش تصویری مبتنی بر هوش مصنوعی، Deepfake، صحبت ها و یا حرکاتی که فرد در واقعیت هرگز به زبان نیاورده و انجام نداده است به او نسبت داده می شود.

شبکه‌های مولد تخاصمی (Generative Adversarial Networks)، دسته خاصی از الگوریتم‌های یادگیری ماشین است که سیستم Deepfake، با بهره گیری از آن تصاویر و فیلم های مد نظر را با ویدئوهای اصلی (Source)، ترکیب (Combine) و یا بر هم نهی (Superimpose) می کند.

فناوری Deepfake، یک چاقوی دو لبه 

هم می توان در صنایعی همچون صنعت سینما به خوبی از آن بهره جست و هم می توان بعد خطرناک آن را برای مقاصد سیاسی و تبلیغاتی یا محتواهای مجرمانه و غیر اخلاقی به کار گرفت.

اشخاص معروف و مردان سیاست بیش از بقیه افراد در معرض توطئه ناشی از فناوری Deepfake هستند، زیرا برای جعل چهره، باید تعداد بسیار زیادی تصویر از حالات مختلف چهره فرد مورد نظر در اختیار باشد.

رسانه و فضای مجازی پر است از داده های مورد نیاز جهت هدف قرار دادن مسائل هویتی و آبرویی سلبریتی ها و سیاستمداران.

با هوش مصنوعی می توان اعتبار افراد را زیر سوال برد.

دیپ فیک Deepfake، مردم را هم‌زمان، دیرباور و زودبارو می کند!

این جملات، نظرات ماسیمو گرملینی، خبرنگار مشهور روزنامه کوریه‌ دلاسرا را درباره فناوری Deepfake نشان می دهد.

حالا که با تکنیک Deepfake، آشنا شدید، به سراغ چند مورد از مصداق های استفاده از این فناوری ترسناک! برویم.

کارگردانان سینما و Deepfake

خودروی پل ویلیام واکر، بازیگر فیلم سریع و خشمگین (Fast & Furious) در کالیفرنیا منفجر شده و او در آتش می سوزد.

مرگ او پیش‌ از تکمیل فیلم‌برداری هفتمین قسمت فیلم رقم میخورد.

اما جیمز وان با بهره مندی از Deepfake هنوز هم از هنرنمایی پل ویلیام واکر استفاده می کند.

گرند ماف تارکین، شخصیت خیالی در مجموعه جنگ ستارگان، به لطف Deepfake، پس از مرگش هم در سال 2016 در فیلم روگ وان: داستانی از جنگ ستارگان (Rogue One: A Star Wars Story) نقش آفرینی کرد.

این ها تنها دو نمونه از کاربردهای جذاب Deepfake بود.

تکنیک Deepfake و باور ناپذیر شدن اصل ماجرا

ماه ها از عدم حضور بونگو رئیس جمهور کشور گابُن در تلویزیون و مراسم های مختلف سپری شده بود و حتی مردم احتمال مرگ او را می دادند.

بالاخره در دسامبر سال 2018، بونگو سخنرانی کرد و فیلم سخنرانیش در فیس بوک دست به دست چرخید.

اما رقبای سیاسی از باور قبلی مردم درباره احتمال مرگ او سو استفاده کردند و فیلم را نتیجه فناوری Deepfake دانستند.

به همین ترتیب، Deepfake یکی از عوامل کودتای ارتش در چند هفته بعد از پخش آن فیلم شد.

سوءاستفاده از دیپ فیک و توطئه سیاسی

در ابتدای همین مطلب، به یکی از کاربردهای سوء فناوری Deepfake در عرصه سیاست اشاره شد.

اوباما ضمن ابراز نگرانی درباره پیشرفت این فناوری، درباره آن ویدئو گفته است:

جعل حرکات و سخنان من به گونه ای دقیق انجام شده است که گویی واقعا خودم آن حرکات را انجام می دهم و آن صحبت ها را بر زبان جاری می کنم!

در حالی که من نیستم!

اگر به همین ترتیب پیش برود، پایه‌های دموکراسی ما که برمبنای حقیقت بنا شده سست خواهد شد.

نانسی پلوسی، سخنگوی مجلس نمایندگان ایالت متحده آمریکا، دیگر قربانی سیاسی Deepfake !

ویدئویی جعلی از سخنرانی پلوسی منتشر می شود، پلوسی مست به نظر می رسد.

در آن ویدئو سرعت صحبت‌های پلوسی حدود 25 درصد کاهش یافته است و اینگونه به مخاطب القا می شود که پلوسی قصد دارد برخی سخنان خود را تغییر داده و یا حذف کند.

این ویدیوی جعلی به سرعت در یکی از پیج‌های فیسبوک منتشر می شود؛ در حالی که تعجب برخی برانگیخته می شود!

و پس از تکذیب ویدئو،  باز نشر آن در فیس بوک کاهش می یابد.

و اما نگرانی اصلی، انتخابات ۲۰۲۰ آمریکا است.

دیپ فیک Deepfake، می تواند به راحتی افکار عمومی را منحرف کند و حتی انتخابات را تحت تاثیر قرار دهد.

به همین خاطر مرکز تحقیقاتی آژانس پروژه‌های پیشرفته دفاعی وزارت دفاع آمریکا (Darpa)، میلیون‌ها دلار بودجه برای بررسی راه‌های تشخیص Deepfake اختصاص داده است.

هائو لی، پروفسور دانشگاه کالیفرنیای جنوبی که یکی از فعالان عرصه هوش مصنوعی است، در مصاحبه‌ای با روزنامه آلمانی دی‌تسایت گفت:

سرعت رشد این تکنولوژی به حدی است که در آینده نه چندان دور نه متخصصان این عرصه و نه کامپیوترها قادر به تشخیص اصل یا جعل بودن فیلم ها نیستند.

و این دلهره آورین ترین بخش ماجراست!

دیپ‌فیک و بی اخلاقی

متأسفانه سو استفاده از Deepfake، تنها به عرصه سیاست محدود نشده است.

جعل تصویر و انتشار ویدئوهای غیر اخلاقی با حضور بازیگران مطرح سینما که حضورشان در آن نقش ها کاملا دور از ذهن بود.

اسکارلت جوهانسون، یکی از بازیگران سینمای هالیوود که خود قربانی این ویدئو‌ها بوده است، می‌گوید:

برای محافظت خود از اینترنت و Deepfake بیهوده تلاش نکنید! هیچ‌چیزی جلودار فردی نیست که دست به چنین کاری می‌زند.

اما در نهایت آیا راهی برای فرار از قربانی شدن و یا فریب خوردن توسط Deepfake وجود دارد؟

البته که انسان ها،خودشان چگونگی استفاده از چاقوی دو لبه Deepfake را تعیین می کنند.

اما باید مراقب تهدیدهای پیشرفت Deepfake هم بود.

  • به روز باشید و آگاهیتان را افزایش دهید.
  • از اطلاعات شخصی خود و خانواده تان بیشتر حفاظت کنید.
  • هر فیلمی را باور نکنید. به عقلتان بیش از چشم هایتان اعتماد کنید.
  • هر فیلمی را باز نشر نکنید.

 

منابع:

https://www.cnbc.com/2019/10/14/what-is-deepfake-and-how-it-might-be-dangerous.html

https://www.creativebloq.com/features/deepfake-examples

دیگر پست های آموزشی و اخبار دنیای فناوری را نیز از دست ندهید.

راستی! شما میتوانید در بخش دیدگاه ها موضوعات مورد علاقه خود را برای مقالات بعدی که به صورت اختصاصی توسط تیم وبسایت رسمی IDH تهیه میشوند با ما در میان بگذارید.

امیدواریم از این مقاله فناورانه که در خصوص معرفی فناوری دیپ فیک (فناوری Deepfake) و مزایا و چالش های آن بود استفاده و لذت برده باشید. 

0 پاسخ

پاسخ دهید

میخواهید به بحث بپیوندید؟
مشارکت رایگان.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *