ویدیوهای جعلی تولید شده توسط هوش مصنوعی رایج تر شده اند به طوری که تشخیص آن از ویدیوی اصلی به شدت سخت شده است. اینجاست که باید نگران باشیم. اما ابتدا بیایید کمی درباره این صحبت کنیم که دیپ فیک چیست.
دیپ فیک چیست؟
آیا تا به حال دیده اید که باراک اوباما، دونالد ترامپ را یک «مغز کامل» خطاب کند، یا مارک زاکربرگ درباره داشتن «کنترل کامل بر دادههای دزدیدهشده میلیاردها نفر» به خود ببالد، یا شاهد عذرخواهی جان اسنو برای پایان ناگوار بازی تاج و تخت بودهاید؟اگر با بله پاسخ دهید شما در واقع یک دیپ فیک دیده اید.
پاسخ قرن بیست و یکم به فتوشاپ، دیپ فیکها از نوعی هوش مصنوعی به نام یادگیری عمیق برای ساختن تصاویری از رویدادهای جعلی استفاده میکنند، از این رو به آن دیپ فیک میگویند. آیا می خواهید کلمات جدیدی را در دهان یک سیاستمدار قرار دهید، در فیلم مورد علاقه خود بازی کنید یا مانند یک حرفه ای برقصید، سپس نوبت به ساخت دیپ فیک می رسد.
استفاده از دیپ فک علیه زنان
بسیاری از آنها در پورنوگرافیک استفاده می شوند. شرکت هوش مصنوعی Deeptrace در سپتامبر 2019، 15000 ویدیوی دیپ فیک را بهصورت آنلاین پیدا کرد که تقریباً در طی 9 ماه دو برابر شده است. 96 درصد از آنها پورنوگرافیک بودند و 99 درصد از چهرههای مشهور زن برای ساخت پورن قلابی استفاده کردند.
از آنجایی که تکنیکهای جدید به افراد غیر ماهر امکان میدهد با تعداد انگشت شماری عکس، دیپفیک بسازند، ویدیوهای جعلی احتمالاً فراتر از دنیای سلبریتیها گسترش مییابند تا به پورن انتقام جویانه دامن بزنند. همانطور که دانیل سیترون، استاد حقوق در دانشگاه بوستون میگوید: «فناوری دیپفیک علیه زنان مورد استفاده قرار میگیرد.» فراتر از پورن، جعل، طنز و شیطنت فراوانی وجود دارد.
آیا فقط برای ساخت فیلم جعلی استفاده می شود؟
خیر. فناوری Deepfake میتواند عکسهای قانعکننده اما کاملاً تخیلی را ایجاد کند. یکی از روزنامهنگاران بلومبرگ به نام «میزی کینزلی» که پروفایلی در لینکدین و توییتر داشت، احتمالاً یک دیپفیک بود. یکی دیگر از جعلی های لینکدین، «کتی جونز» بود، که ادعا میکرد در مرکز مطالعات استراتژیک و بینالمللی کار میکند، اما گمان میرود که یک جعلی عمیق است که برای یک عملیات جاسوسی خارجی ایجاد شده است.
صدا را نیز میتوان به صورت عمیق جعل کرد تا «پوستههای صوتی» یا «کلونهای صوتی» شخصیتهای عمومی ایجاد شود. در ماه مارس گذشته، رئیس یکی از شعبه های بریتانیایی یک شرکت انرژی آلمانی پس از تماس تلفنی توسط یک کلاهبردار که صدای مدیرعامل آلمانی را تقلید می کرد، نزدیک به 200000 پوند به حساب بانکی مجارستان پرداخت کرد. بیمهگران این شرکت معتقدند این صدا یک دروغ عمیق بود، اما شواهد آن مشخص نیست. طبق گزارشها، کلاهبرداریهای مشابهی از پیامهای صوتی ضبطشده WhatsApp استفاده کردهاند.
دیپ فیک چگونه ساخته می شود؟
محققان دانشگاه و استودیوهای جلوههای ویژه مدت هاست که مرزهای امکان دستکاری ویدیو و تصویر را تغییر دادهاند. اما خود دیپ فیک ها در سال 2017 متولد شدند، زمانی که یکی از کاربران Reddit به همین نام، کلیپ های مستهجن را در صفجه خود منتشر کرد. این ویدئوها چهره افراد مشهور – گال گدوت، تیلور سویفت، اسکارلت جوهانسون و دیگران – را با بازیگران پورن عوض کرد.
ساختن یک ویدیوی تعویض چهره چند مرحله طول می کشد. ابتدا، شما هزاران عکس از چهره دو نفر را از طریق یک الگوریتم هوش مصنوعی به نام رمزگذار اجرا می کنید.
رمزگذار شباهتهای بین دو چهره را پیدا کرده و آنها را به ویژگیهای مشترک می رساند و تصاویر را در این فرآیند فشرده میکند. سپس دومین الگوریتم هوش مصنوعی به نام رمزگشا آموزش داده می شود تا چهره ها را از تصاویر فشرده بازیابی کند. از آنجایی که چهرهها متفاوت هستند، یک رمزگشا را برای بازیابی چهره شخص اول و رمزگشای دیگری را برای بازیابی چهره شخص دوم آموزش میدهید.
برای انجام تعویض چهره، به سادگی تصاویر رمزگذاری شده را به رمزگشای «اشتباه» وارد میکنید. به عنوان مثال، یک تصویر فشرده از صورت شخص A به رمزگشای آموزش دیده روی شخص B وارد می شود. سپس رمزگشا چهره شخص B را با عبارات و جهت گیری صورت A بازسازی می کند. برای یک ویدیوی متقاعد کننده، این کار باید در هر مورد انجام شود.
یکی دیگر از راههای ساخت دیپفیک از چیزی استفاده میکند که شبکه متخاصم مولد یا Gan نامیده میشود. یک گان دو الگوریتم هوش مصنوعی را در برابر یکدیگر قرار می دهد. الگوریتم اول که به نام ژنراتور شناخته می شود، نویز تصادفی تغذیه می شود و آن را به یک تصویر تبدیل می کند. این تصویر مصنوعی سپس به جریانی از تصاویر واقعی – مثلاً از افراد مشهور – اضافه میشود که به الگوریتم دوم، معروف به تشخیصدهنده، وارد میشوند. در ابتدا، تصاویر مصنوعی هیچ شباهتی به چهره ندارند. اما این روند را بارها تکرار کنید، با بازخورد عملکرد، و تمایز دهنده و مولد هر دو بهبود می یابند. با توجه به چرخهها و بازخوردهای کافی، مولد شروع به تولید چهرههای کاملاً واقعی از افراد مشهور خواهد کرد.
اگر می خواهید با نحوه تغییر چهره در ویدیو و ابزارهای ساخت آن بیشتر آشنا شوید پیشنهاد می کنم مقاله مربوطه را حتما بخوانید.
چه کسی دیپ فیک می سازد؟
همه از محققان دانشگاهی و صنعتی گرفته تا علاقمندان آماتور، استودیوهای جلوه های بصری و تولیدکنندگان پورن. برای مثال، دولتها ممکن است به عنوان بخشی از استراتژیهای آنلاین خود برای بیاعتبار کردن و برهم زدن گروههای افراطی یا برقراری تماس با افراد مورد نظر، به این فناوری دست بزنند.
برای ساخت آن به چه فناوری نیاز دارید؟
ساختن یک دیپ فیک خوب در یک کامپیوتر استاندارد سخت است. بیشتر آنها روی دسکتاپهای پیشرفته با کارتهای گرافیکی قدرتمند یا بهتر است با قدرت محاسباتی در فضای ابری ایجاد میشوند. این امر زمان پردازش را از روزها و هفته ها به ساعت ها کاهش می دهد. اما برای کاهش سوسو زدن و سایر نقایص بصری، نیاز به تخصص نیز دارد.
گفتنی است، اکنون ابزارهای زیادی برای کمک به افراد در ساخت دیپ فیک در دسترس است. چندین شرکت آنها را برای شما می سازند و تمام پردازش ها را در فضای ابری انجام می دهند. حتی یک برنامه تلفن همراه به نام Zao وجود دارد که به کاربران امکان می دهد چهره خود را به لیستی از شخصیت های تلویزیونی و فیلمی که سیستم بر روی آنها آموزش دیده است اضافه کنند.
چگونه یک دیپ فیک را تشخیص دهیم؟
این کار با پیشرفت تکنولوژی سخت تر می شود. در سال 2018، محققان آمریکایی کشف کردند که چهره های دیپ فیک به طور معمول پلک نمی زنند. و اکثر تصاویر افراد را با چشمان باز نشان می دهند، اما به محض اینکه این تحقیق منتشر شد، دیپ فیک ها با چشمک زدن ظاهر شدند. ماهیت بازی چنین است: به محض اینکه نقطه ضعفی آشکار شد، برطرف می شود.
دیپ فیک های بی کیفیت راحت تر قابل تشخیص هستند. ممکن است همگام سازی لب بد باشد یا رنگ پوست تکه تکه باشد. می تواند در اطراف لبه های صورت های جابجا شده سوسو بزند. و جزئیات ظریف، مانند مو، به خصوص برای دیپ فیک ها سخت است که به خوبی نمایش داده شوند، به خصوص در جایی که تارها روی حاشیه قابل مشاهده هستند. جواهرات و دندانهایی که به درستی طراحی نشدهاند نیز میتوانند راه حلی باشند، مانند نورپردازیهای عجیب، یا نور ناسازگار و انعکاس روی عنبیه.
دولتها، دانشگاهها و شرکتهای فناوری همگی در حال تأمین بودجه تحقیقاتی برای شناسایی دیپفیک هستند. ماه گذشته، اولین چالش تشخیص Deepfake با حمایت مایکروسافت، فیس بوک و آمازون آغاز شد. این شامل تیم های تحقیقاتی در سرتاسر جهان خواهد بود که برای برتری در بازی تشخیص دیپ فیک رقابت می کنند.
فیسبوک هفته گذشته ویدیوهای دیپفیک را که احتمالاً بینندگان را گمراه میکند تا فکر کنند کسی «حرفهایی گفته است که واقعاً نگفتهاند» را در آستانه انتخابات ۲۰۲۰ آمریکا ممنوع کرد. با این حال، این خط مشی فقط اطلاعات نادرست تولید شده با استفاده از هوش مصنوعی قوی را پوشش میدهد، به این معنی که «جعلهای کم عمق» همچنان در پلتفرم مجاز هستند.
آیا دیپ فیک ها باعث ایجاد جنگ جهانی می شوند؟
میتوانیم انتظار دیپفیکهای بیشتری را داشته باشیم که باعث آزار، ارعاب، تحقیر، تضعیف و بیثباتی میشوند. اما آیا دیپ فیک جرقه حوادث بزرگ بین المللی خواهد شد؟ در اینجا وضعیت کمتر روشن است. دیپ فیک یک رهبر جهان که دکمه قرمز بزرگ را فشار می دهد نباید باعث آرماگدون شود. همچنین تصاویر ماهوارهای عمیق جعلی از نیروهایی که در مرز جمع میشوند، دردسر زیادی ایجاد نخواهد کرد زیرا بیشتر کشورها سیستمهای تصویربرداری امنیتی قابل اعتماد خود را دارند.
با این حال، هنوز جای زیادی برای شیطنت وجود دارد. سال گذشته، سهام تسلا زمانی سقوط کرد که ایلان ماسک در یک نمایش زنده اینترنتی یک ژتون را دود کرد. در ماه دسامبر، دونالد ترامپ زودتر از یک نشست ناتو به خانه رفت، زمانی که تصاویر واقعی از دیگر رهبران جهان ظاهر شد که ظاهرا او را مسخره می کنند. دیپ فیک های قابل قبول قیمت سهام را تغییر می دهند، رای دهندگان را تحت تاثیر قرار می دهند و تنش های مذهبی را تحریک می کنند.
آیا آنها اعتماد را تضعیف خواهند کرد؟
تأثیر موذیانهتر دیپفیکها، همراه با سایر رسانههای مصنوعی و اخبار جعلی و زرد، ایجاد جامعهای بدون اعتماد است، جایی که مردم نمیتوانند، یا دیگر توانی برای تشخیص حقیقت از دروغ ندارند. و هنگامی که اعتماد از بین می رود، ایجاد شک در مورد رویدادهای خاص آسان تر است.
سال گذشته، وزیر ارتباطات کامرون ویدئویی را که نشان می دهد سربازان کامرونی در حال اعدام غیرنظامیان هستند، به عنوان اخبار جعلی رد کرد.
دونالد ترامپ که اعتراف کرد در یک مکالمه ضبط شده به گرفتن اندام تناسلی زنان افتخار کرده است، بعداً گفت که این نوار واقعی نیست. در مصاحبه پرنس اندرو در بی بی سی با امیلی مایتلیس، شاهزاده در مورد صحت عکس گرفته شده با ویرجینیا گیفر تردید کرد، عکسی که وکیل او اصرار دارد که واقعی و بدون تغییر است.
پروفسور لیلیان ادواردز، کارشناس برجسته حقوق اینترنت در دانشگاه نیوکاسل، می گوید: «مشکل ممکن است واقعیت جعلی نباشد، بلکه این واقعیت است که واقعیت واقعی به طور قابل قبولی قابل انکار است.
با در دسترستر شدن این فناوری، دیپفیکها میتواند برای دادگاهها دردسر ایجاد کند، بهویژه در نبردهای حضانت کودکان و دادگاههای استخدامی، جایی که رویدادهای جعلی میتوانند به عنوان مدرک وارد شوند. اما آنها همچنین یک خطر امنیتی دارند: دیپفیکها میتوانند دادههای بیومتریک را تقلید کنند و به طور بالقوه میتوانند سیستمهایی را فریب دهند که به تشخیص چهره، صدا، رگ یا راه رفتن متکی هستند. یا این فناوری پتانسیل کلاهبرداری واضح و بیشتر است. اگر فرد ناشناسی با شما تماس بگیرید بعید است که به یک حساب بانکی ناشناس پول منتقل کنید. اما اگر آن شخص شبیه «مادر» یا «خواهر» شما باشد و همان درخواست را بکند، چه؟
راه حلی برای دیپ فیک؟
از قضا، هوش مصنوعی ممکن است پاسخگو باشد. هوش مصنوعی در حال حاضر به شناسایی ویدیوهای جعلی کمک می کند، اما بسیاری از سیستم های تشخیص موجود یک ضعف جدی دارند: آنها برای افراد مشهور بهترین عملکرد را دارند، زیرا آنها می توانند ساعت ها فیلم آزادانه در دسترس را آموزش ببینند. شرکتهای فناوری اکنون روی سیستمهای شناسایی کار میکنند که هدفشان این است که هر زمان که تقلبی ظاهر میشود پرچمگذاری کند. استراتژی دیگر بر منشأ رسانه متمرکز است. واترمارکهای دیجیتال بیخطا نیستند، اما یک سیستم دفتر کل آنلاین بلاک چین میتواند یک رکورد ضد دستکاری از فیلمها، تصاویر و صداها را در خود نگه دارد، بنابراین منشأ آنها و هرگونه دستکاری همیشه قابل بررسی است.
در مورد جعل های کم عمق چطور؟
Shallowfakes که توسط سام گرگوری در سازمان حقوق بشر Witness ابداع شده است، ویدیوهایی هستند که یا خارج از زمینه ارائه می شوند یا با ابزارهای ویرایش ساده طراحی شده اند. آنها خام هستند اما بدون شک تأثیرگذار هستند. یک ویدئوی کم عمق که سخنرانی نانسی پلوسی را کند کرد و صدای رئیس مجلس نمایندگان آمریکا را درهم و برهم ساخت، میلیون ها بازدید را در رسانه های اجتماعی به دست آورد.
در یک رویداد دیگر، جیم آکوستا، خبرنگار سی ان ان، به طور موقت از شرکت در نشست های مطبوعاتی کاخ سفید در جریان تبادل نظر شدید با رئیس جمهور منع شد. یک ویدیوی جعلی که پس از آن منتشر شد، نشان میداد که او در حال تماس با کارآموزی است که سعی میکرد میکروفون را از روی او بردارد. بعداً مشخص شد که ویدیو در لحظه حساس سرعت گرفته است و این حرکت را تهاجمی نشان می دهد.
حزب محافظه کار بریتانیا از تاکتیک های کم عمق مشابهی استفاده کرد. در آستانه انتخابات اخیر، محافظهکاران یک مصاحبه تلویزیونی با استارمر، نماینده حزب کارگر را متوقف کردند تا به نظر برسد که او قادر به پاسخگویی به سؤالی در مورد موضع حزب در مورد برگزیت نیست. با دیپ فیک، شیطنت فقط به احتمال زیاد افزایش می یابد. همانطور که هنری آژدر، رئیس اطلاعات تهدید در Deeptrace می گوید: “جهان به طور فزاینده ای مصنوعی تر می شود و این فناوری از بین نمی رود.»
اگر شما هم نکاتی درباره اینکه دیپ فیک چیست می دانید خوشحال می شویم زیر همین مقاله برای بقیه به اشتراک بزارید