دیپ فیک چیست

دیپ فیک چیست و چگونه می توانید آن را تشخیص دهید؟ استفاده از آن در پورن!

آنچه که در این مقاله می خوانید:

ویدیوهای جعلی تولید شده توسط هوش مصنوعی رایج تر شده اند به طوری که تشخیص آن از ویدیوی اصلی به شدت سخت شده است. اینجاست که باید نگران باشیم. اما ابتدا بیایید کمی درباره این صحبت کنیم که دیپ فیک چیست.

دیپ فیک چیست؟

آیا تا به حال دیده اید که باراک اوباما، دونالد ترامپ را یک «مغز کامل» خطاب کند، یا مارک زاکربرگ درباره داشتن «کنترل کامل بر داده‌های دزدیده‌شده میلیاردها نفر» به خود ببالد، یا شاهد عذرخواهی جان اسنو برای پایان ناگوار بازی تاج و تخت بوده‌اید؟اگر با بله پاسخ دهید شما در واقع یک دیپ فیک دیده اید.

پاسخ قرن بیست و یکم به فتوشاپ، دیپ‌ فیک‌ها از نوعی هوش مصنوعی به نام یادگیری عمیق برای ساختن تصاویری از رویدادهای جعلی استفاده می‌کنند، از این رو به آن دیپ‌ فیک می‌گویند. آیا می خواهید کلمات جدیدی را در دهان یک سیاستمدار قرار دهید، در فیلم مورد علاقه خود بازی کنید یا مانند یک حرفه ای برقصید، سپس نوبت به ساخت دیپ فیک می رسد.

استفاده از دیپ فک علیه زنان

بسیاری از آنها در پورنوگرافیک استفاده می شوند. شرکت هوش مصنوعی Deeptrace در سپتامبر 2019، 15000 ویدیوی دیپ‌ فیک را به‌صورت آنلاین پیدا کرد که تقریباً در طی 9 ماه دو برابر شده است. 96 درصد از آنها پورنوگرافیک بودند و 99 درصد از چهره‌های مشهور زن برای ساخت پورن قلابی استفاده کردند.

از آنجایی که تکنیک‌های جدید به افراد غیر ماهر امکان می‌دهد با تعداد انگشت شماری عکس، دیپ‌فیک بسازند، ویدیوهای جعلی احتمالاً فراتر از دنیای سلبریتی‌ها گسترش می‌یابند تا به پورن انتقام جویانه دامن بزنند. همانطور که دانیل سیترون، استاد حقوق در دانشگاه بوستون می‌گوید: «فناوری دیپ‌فیک علیه زنان مورد استفاده قرار می‌گیرد.» فراتر از پورن، جعل، طنز و شیطنت فراوانی وجود دارد.

آیا فقط برای ساخت فیلم جعلی استفاده می شود؟

خیر. فناوری Deepfake می‌تواند عکس‌های قانع‌کننده اما کاملاً تخیلی را ایجاد کند. یکی از روزنامه‌نگاران بلومبرگ به نام «میزی کینزلی» که پروفایلی در لینکدین و توییتر داشت، احتمالاً یک دیپ‌فیک بود. یکی دیگر از جعلی‌ های لینکدین، «کتی جونز» بود، که ادعا می‌کرد در مرکز مطالعات استراتژیک و بین‌المللی کار می‌کند، اما گمان می‌رود که یک جعلی عمیق است که برای یک عملیات جاسوسی خارجی ایجاد شده است.

صدا را نیز می‌توان به صورت عمیق جعل کرد تا «پوسته‌های صوتی» یا «کلون‌های صوتی» شخصیت‌های عمومی ایجاد شود. در ماه مارس گذشته، رئیس یکی از شعبه های بریتانیایی یک شرکت انرژی آلمانی پس از تماس تلفنی توسط یک کلاهبردار که صدای مدیرعامل آلمانی را تقلید می کرد، نزدیک به 200000 پوند به حساب بانکی مجارستان پرداخت کرد. بیمه‌گران این شرکت معتقدند این صدا یک دروغ عمیق بود، اما شواهد آن مشخص نیست. طبق گزارش‌ها، کلاهبرداری‌های مشابهی از پیام‌های صوتی ضبط‌شده WhatsApp استفاده کرده‌اند.

استفاده از دیپ فیک برای مارک زاکربرگ

دیپ فیک چگونه ساخته می شود؟

محققان دانشگاه و استودیوهای جلوه‌های ویژه مدت‌ هاست که مرزهای امکان دستکاری ویدیو و تصویر را تغییر داده‌اند. اما خود دیپ فیک ها در سال 2017 متولد شدند، زمانی که یکی از کاربران Reddit به همین نام، کلیپ های مستهجن را در صفجه خود منتشر کرد. این ویدئوها چهره افراد مشهور – گال گدوت، تیلور سویفت، اسکارلت جوهانسون و دیگران – را با بازیگران پورن عوض کرد.

ساختن یک ویدیوی تعویض چهره چند مرحله طول می کشد. ابتدا، شما هزاران عکس از چهره دو نفر را از طریق یک الگوریتم هوش مصنوعی به نام رمزگذار اجرا می کنید.

بیشتر بدانید:  بهترین میکروفون یقه ای در سال 2021 کدام است؟ بررسی کامل آن ها.

رمزگذار شباهت‌های بین دو چهره را پیدا کرده و آنها را به ویژگی‌های مشترک می رساند و تصاویر را در این فرآیند فشرده می‌کند. سپس دومین الگوریتم هوش مصنوعی به نام رمزگشا آموزش داده می شود تا چهره ها را از تصاویر فشرده بازیابی کند. از آنجایی که چهره‌ها متفاوت هستند، یک رمزگشا را برای بازیابی چهره شخص اول و رمزگشای دیگری را برای بازیابی چهره شخص دوم آموزش می‌دهید.

برای انجام تعویض چهره، به سادگی تصاویر رمزگذاری شده را به رمزگشای «اشتباه» وارد می‌کنید. به عنوان مثال، یک تصویر فشرده از صورت شخص A به رمزگشای آموزش دیده روی شخص B وارد می شود. سپس رمزگشا چهره شخص B را با عبارات و جهت گیری صورت A بازسازی می کند. برای یک ویدیوی متقاعد کننده، این کار باید در هر مورد انجام شود.

استفاده از دیپ فیک برای پوتین

یکی دیگر از راه‌های ساخت دیپ‌فیک از چیزی استفاده می‌کند که شبکه متخاصم مولد یا Gan نامیده می‌شود. یک گان دو الگوریتم هوش مصنوعی را در برابر یکدیگر قرار می دهد. الگوریتم اول که به نام ژنراتور شناخته می شود، نویز تصادفی تغذیه می شود و آن را به یک تصویر تبدیل می کند. این تصویر مصنوعی سپس به جریانی از تصاویر واقعی – مثلاً از افراد مشهور – اضافه می‌شود که به الگوریتم دوم، معروف به تشخیص‌دهنده، وارد می‌شوند. در ابتدا، تصاویر مصنوعی هیچ شباهتی به چهره ندارند. اما این روند را بارها تکرار کنید، با بازخورد عملکرد، و تمایز دهنده و مولد هر دو بهبود می یابند. با توجه به چرخه‌ها و بازخوردهای کافی، مولد شروع به تولید چهره‌های کاملاً واقعی از افراد مشهور خواهد کرد.

اگر می خواهید با نحوه تغییر چهره در ویدیو و ابزارهای ساخت آن بیشتر آشنا شوید پیشنهاد می کنم مقاله مربوطه را حتما بخوانید.

چه کسی دیپ فیک می سازد؟

همه از محققان دانشگاهی و صنعتی گرفته تا علاقمندان آماتور، استودیوهای جلوه های بصری و تولیدکنندگان پورن. برای مثال، دولت‌ها ممکن است به عنوان بخشی از استراتژی‌های آنلاین خود برای بی‌اعتبار کردن و برهم زدن گروه‌های افراطی یا برقراری تماس با افراد مورد نظر، به این فناوری دست بزنند.

برای ساخت آن به چه فناوری نیاز دارید؟

ساختن یک دیپ فیک خوب در یک کامپیوتر استاندارد سخت است. بیشتر آنها روی دسکتاپ‌های پیشرفته با کارت‌های گرافیکی قدرتمند یا بهتر است با قدرت محاسباتی در فضای ابری ایجاد می‌شوند. این امر زمان پردازش را از روزها و هفته ها به ساعت ها کاهش می دهد. اما برای کاهش سوسو زدن و سایر نقایص بصری، نیاز به تخصص نیز دارد.

گفتنی است، اکنون ابزارهای زیادی برای کمک به افراد در ساخت دیپ فیک در دسترس است. چندین شرکت آنها را برای شما می سازند و تمام پردازش ها را در فضای ابری انجام می دهند. حتی یک برنامه تلفن همراه به نام Zao وجود دارد که به کاربران امکان می دهد چهره خود را به لیستی از شخصیت های تلویزیونی و فیلمی که سیستم بر روی آنها آموزش دیده است اضافه کنند.

استفاده از چهره خود بر روی چهره بازیگران با دیپ فیک

چگونه یک دیپ فیک را تشخیص دهیم؟

این کار با پیشرفت تکنولوژی سخت تر می شود. در سال 2018، محققان آمریکایی کشف کردند که چهره های دیپ فیک به طور معمول پلک نمی زنند. و اکثر تصاویر افراد را با چشمان باز نشان می دهند، اما به محض اینکه این تحقیق منتشر شد، دیپ فیک ها با چشمک زدن ظاهر شدند. ماهیت بازی چنین است: به محض اینکه نقطه ضعفی آشکار شد، برطرف می شود.

بیشتر بدانید:  دانلود ویدیو خام رایگان از 12 سایت برتر، بدون حق کپی رایت و واترمارک!

دیپ فیک های بی کیفیت راحت تر قابل تشخیص هستند. ممکن است همگام سازی لب بد باشد یا رنگ پوست تکه تکه باشد. می تواند در اطراف لبه های صورت های جابجا شده سوسو بزند. و جزئیات ظریف، مانند مو، به خصوص برای دیپ فیک ها سخت است که به خوبی نمایش داده شوند، به خصوص در جایی که تارها روی حاشیه قابل مشاهده هستند. جواهرات و دندان‌هایی که به درستی طراحی نشده‌اند نیز می‌توانند راه حلی باشند، مانند نورپردازی‌های عجیب، یا نور ناسازگار و انعکاس روی عنبیه.

دولت‌ها، دانشگاه‌ها و شرکت‌های فناوری همگی در حال تأمین بودجه تحقیقاتی برای شناسایی دیپ‌فیک هستند. ماه گذشته، اولین چالش تشخیص Deepfake با حمایت مایکروسافت، فیس بوک و آمازون آغاز شد. این شامل تیم های تحقیقاتی در سرتاسر جهان خواهد بود که برای برتری در بازی تشخیص دیپ فیک رقابت می کنند.

فیس‌بوک هفته گذشته ویدیوهای دیپ‌فیک را که احتمالاً بینندگان را گمراه می‌کند تا فکر کنند کسی «حرف‌هایی گفته است که واقعاً نگفته‌اند» را در آستانه انتخابات ۲۰۲۰ آمریکا ممنوع کرد. با این حال، این خط‌ مشی فقط اطلاعات نادرست تولید شده با استفاده از هوش مصنوعی قوی را پوشش می‌دهد، به این معنی که «جعل‌های کم عمق» همچنان در پلتفرم مجاز هستند.

استفاده از دیپ فیک برای ترامپ و اوباما

آیا دیپ فیک ها باعث ایجاد جنگ جهانی می شوند؟

می‌توانیم انتظار دیپ‌فیک‌های بیشتری را داشته باشیم که باعث آزار، ارعاب، تحقیر، تضعیف و بی‌ثباتی می‌شوند. اما آیا دیپ فیک جرقه حوادث بزرگ بین المللی خواهد شد؟ در اینجا وضعیت کمتر روشن است. دیپ فیک یک رهبر جهان که دکمه قرمز بزرگ را فشار می دهد نباید باعث آرماگدون شود. همچنین تصاویر ماهواره‌ای عمیق جعلی از نیروهایی که در مرز جمع می‌شوند، دردسر زیادی ایجاد نخواهد کرد زیرا بیشتر کشورها سیستم‌های تصویربرداری امنیتی قابل اعتماد خود را دارند.

با این حال، هنوز جای زیادی برای شیطنت وجود دارد. سال گذشته، سهام تسلا زمانی سقوط کرد که ایلان ماسک در یک نمایش زنده اینترنتی یک ژتون را دود کرد. در ماه دسامبر، دونالد ترامپ زودتر از یک نشست ناتو به خانه رفت، زمانی که تصاویر واقعی از دیگر رهبران جهان ظاهر شد که ظاهرا او را مسخره می کنند. دیپ فیک های قابل قبول قیمت سهام را تغییر می دهند، رای دهندگان را تحت تاثیر قرار می دهند و تنش های مذهبی را تحریک می کنند.

آیا آنها اعتماد را تضعیف خواهند کرد؟

تأثیر موذیانه‌تر دیپ‌فیک‌ها، همراه با سایر رسانه‌های مصنوعی و اخبار جعلی و زرد، ایجاد جامعه‌ای بدون اعتماد است، جایی که مردم نمی‌توانند، یا دیگر توانی برای تشخیص حقیقت از دروغ ندارند. و هنگامی که اعتماد از بین می رود، ایجاد شک در مورد رویدادهای خاص آسان تر است.

سال گذشته، وزیر ارتباطات کامرون ویدئویی را که نشان می دهد سربازان کامرونی در حال اعدام غیرنظامیان هستند، به عنوان اخبار جعلی رد کرد.

دونالد ترامپ که اعتراف کرد در یک مکالمه ضبط شده به گرفتن اندام تناسلی زنان افتخار کرده است، بعداً گفت که این نوار واقعی نیست. در مصاحبه پرنس اندرو در بی بی سی با امیلی مایتلیس، شاهزاده در مورد صحت عکس گرفته شده با ویرجینیا گیفر تردید کرد، عکسی که وکیل او اصرار دارد که واقعی و بدون تغییر است.

بیشتر بدانید:  بهترین فیلترهای اینستاگرام برای استوری + آشنایی با نحوه اعمال آن.

پروفسور لیلیان ادواردز، کارشناس برجسته حقوق اینترنت در دانشگاه نیوکاسل، می گوید: «مشکل ممکن است واقعیت جعلی نباشد، بلکه این واقعیت است که واقعیت واقعی به طور قابل قبولی قابل انکار است.

با در دسترس‌تر شدن این فناوری، دیپ‌فیک‌ها می‌تواند برای دادگاه‌ها دردسر ایجاد کند، به‌ویژه در نبردهای حضانت کودکان و دادگاه‌های استخدامی، جایی که رویدادهای جعلی می‌توانند به عنوان مدرک وارد شوند. اما آنها همچنین یک خطر امنیتی دارند: دیپ‌فیک‌ها می‌توانند داده‌های بیومتریک را تقلید کنند و به طور بالقوه می‌توانند سیستم‌هایی را فریب دهند که به تشخیص چهره، صدا، رگ یا راه رفتن متکی هستند. یا این فناوری پتانسیل کلاهبرداری واضح و بیشتر است. اگر فرد ناشناسی با شما تماس بگیرید بعید است که به یک حساب بانکی ناشناس پول منتقل کنید. اما اگر آن شخص شبیه «مادر» یا «خواهر» شما باشد و همان درخواست را بکند، چه؟

راه حلی برای دیپ فیک؟

از قضا، هوش مصنوعی ممکن است پاسخگو باشد. هوش مصنوعی در حال حاضر به شناسایی ویدیوهای جعلی کمک می کند، اما بسیاری از سیستم های تشخیص موجود یک ضعف جدی دارند: آنها برای افراد مشهور بهترین عملکرد را دارند، زیرا آنها می توانند ساعت ها فیلم آزادانه در دسترس را آموزش ببینند. شرکت‌های فناوری اکنون روی سیستم‌های شناسایی کار می‌کنند که هدفشان این است که هر زمان که تقلبی ظاهر می‌شود پرچم‌گذاری کند. استراتژی دیگر بر منشأ رسانه متمرکز است. واترمارک‌های دیجیتال بی‌خطا نیستند، اما یک سیستم دفتر کل آنلاین بلاک چین می‌تواند یک رکورد ضد دستکاری از فیلم‌ها، تصاویر و صداها را در خود نگه دارد، بنابراین منشأ آنها و هرگونه دستکاری همیشه قابل بررسی است.

در مورد جعل های کم عمق چطور؟

Shallowfakes که توسط سام گرگوری در سازمان حقوق بشر Witness ابداع شده است، ویدیوهایی هستند که یا خارج از زمینه ارائه می شوند یا با ابزارهای ویرایش ساده طراحی شده اند. آنها خام هستند اما بدون شک تأثیرگذار هستند. یک ویدئوی کم عمق که سخنرانی نانسی پلوسی را کند کرد و صدای رئیس مجلس نمایندگان آمریکا را درهم و برهم ساخت، میلیون ها بازدید را در رسانه های اجتماعی به دست آورد.

در یک رویداد دیگر، جیم آکوستا، خبرنگار سی ان ان، به طور موقت از شرکت در نشست های مطبوعاتی کاخ سفید در جریان تبادل نظر شدید با رئیس جمهور منع شد. یک ویدیوی جعلی که پس از آن منتشر شد، نشان می‌داد که او در حال تماس با کارآموزی است که سعی می‌کرد میکروفون را از روی او بردارد. بعداً مشخص شد که ویدیو در لحظه حساس سرعت گرفته است و این حرکت را تهاجمی نشان می دهد.

حزب محافظه کار بریتانیا از تاکتیک های کم عمق مشابهی استفاده کرد. در آستانه انتخابات اخیر، محافظه‌کاران یک مصاحبه تلویزیونی با استارمر، نماینده حزب کارگر را متوقف کردند تا به نظر برسد که او قادر به پاسخگویی به سؤالی در مورد موضع حزب در مورد برگزیت نیست. با دیپ فیک، شیطنت فقط به احتمال زیاد افزایش می یابد. همانطور که هنری آژدر، رئیس اطلاعات تهدید در Deeptrace می گوید: “جهان به طور فزاینده ای مصنوعی تر می شود و این فناوری از بین نمی رود.»

اگر شما هم نکاتی درباره اینکه دیپ فیک چیست می دانید خوشحال می شویم زیر همین مقاله برای بقیه به اشتراک بزارید

5/5 - (1 امتیاز)
اگه دوست داشتی می تونی توی شبکه های اجتماعی با دوستات به اشتراک بزاری😉
اشتراک گذاری در facebook
اشتراک گذاری در twitter
اشتراک گذاری در linkedin
اشتراک گذاری در telegram
اشتراک گذاری در whatsapp

دیدگاهتان را بنویسید