What Are Deepfake Videos And Detecting Them Blink Of An Eye

یک فرم جدید اطلاعات غلط، از طریق جوامع آنلاین گسترش یافته است، زیرا کمیته های انتخاباتی میان دوره ای 2018 گرم می شوند. بعد از "deepfakes" نامیده می شود حساب آنلاین نام مستعار که تکنیک را تبلیغ کرد - که ممکن است نام خود را انتخاب کرده باشد، زیرا این فرآیند از یک روش فنی به نام "یادگیری عمیق" استفاده می کند - این فیلم های جعلی بسیار واقعی هستند.

تا کنون، افراد فیلمهای عمیق را در این زمینه استفاده کرده اند پورنوگرافی و هجونامه به نظر می رسد که افراد مشهور کارهایی را انجام می دهند که به طور معمول نیستند.

اما تقریبا مطمئن است deepfakes در طول فصل مبارزات انتخاباتی ظاهر خواهد شد، به نظر می رسد برای نشان دادن نامزدها گفتن چیزها یا رفتن به مکان کاندیدای واقعی نمی شود.

این باراک اوباما - یا آن است؟

{youtube}cQ54GDm1eL0{/youtube}

از آنجا که این تکنیک ها بسیار جدید هستند، مردم با مشکل مواجه شدن با تفاوت های واقعی فیلم ها و فیلم های فکری مشکل دارند. کار من، با همکار منگ و چینگ چانگ و دکترای ما یوزون لی دانشجوی، راهی پیدا کرده است به راحتی ویدیوهای واقعی از فیلم های عمیق را بگو. این یک راه حل دائمی نیست، زیرا فناوری بهبود خواهد یافت. اما این یک شروع است و امیدوار است که رایانه بتواند به مردم کمک کند حقیقت را از داستان بیاموزند.


innerself subscribe graphic


به هر حال چه چیزی عمیق است؟

ساخت یک ویدیو عمیق بسیار شبیه ترجمه زبان ها است. خدمات مانند گوگل ترجمه استفاده از یادگیری ماشین - تجزیه و تحلیل کامپیوتری از ده ها هزار متن در چند زبان - به شناسایی الگوهای استفاده از کلمه که آنها برای ایجاد ترجمه استفاده می کنند.

الگوریتم های Deepfake به همان شیوه عمل می کنند: آنها از یک نوع سیستم یادگیری ماشین به نام a استفاده می کنند شبکه عصبی عمیق برای بررسی حرکات صورت یک نفر. سپس آنها تصاویری از چهره فرد دیگری را که جنبش های مشابه را ایجاد می کنند، سنتز می کنند. انجام این کار به طور موثری یک ویدیو از فرد مورد نظر ایجاد می کند و یا چیزهایی را که فرد منبع آن را انجام داده است، می گوید.

چگونه فیلم های عمیق ساخته می شوند

{youtube}8LhI-e2B8Lg{/youtube}

قبل از اینکه بتوانند به درستی کار کنند، شبکه های عمیق عصبی به اطلاعات فراوانی نیاز دارند مانند عکس هایی از افرادی که منبع یا هدف جعل هویت هستند. تصاویر بیشتری که برای آموزش یک الگوریتم عمیق به کار می روند، روش واقعی تر کردن جعل هویت دیجیتال خواهد بود.

تشخیص چشمک زدن

هنوز در این نوع الگوریتم جدید نقص وجود دارد. یکی از آنها مربوط به چگونگی چشمک زدن شبیه سازی شده است یا خیر. انسان بزرگسال سالم چشمک می زند جایی بین هر 2 و 10 ثانیه، و یک چشمک زدن طول می کشد بین یک دهم و چهار دهم ثانیه. این چیزی است که در ویدیوی شخصی صحبت می شود که طبیعی است. اما این چیزی نیست که در بسیاری از فیلمهای عمیق اتفاق می افتد.

یک شخص واقعی در حالی که حرف می زند چشمک می زند.

{youtube}https://www.youtube.com/watch?v=-MMXXEA3UaM{/youtube}

یک چهره شبیه سازی شده، شیوه ای را که یک فرد واقعی انجام می دهد، شگفت زده نمی کند.

{youtube}EttSA9-YIuI{/youtube}

هنگامی که یک الگوریتم عمیق در تصویر چهره یک فرد آموزش دیده است، وابسته به عکس هایی است که در اینترنت موجود هستند که می توانند به عنوان داده های آموزشی استفاده شوند. حتی برای افرادی که اغلب عکسبرداری می شوند، تعداد کمی از تصاویر به صورت آنلاین در دسترس هستند که چشمشان بسته است. عکس هایی مانند این نکته نه تنها به این دلیل است که چشم های مردم بیشتر از زمان باز هستند - اما عکاسان معمولا تصاویری را که در آن چشم افراد اصلی بسته می شوند، منتشر نمی کنند.

بدون آموزش تصویری از مردم چشمک زدن، الگوریتم های عمیق فکری به احتمال زیاد به ایجاد چهره هایی که به طور معمول چشمک می زنند. وقتی ما میزان کلی چشمک زدن را محاسبه میکنیم و با محدوده طبیعی مقایسه میکنیم، متوجه شدیم که شخصیتهای فیلمهای عمیق در مقایسه با افراد واقعی، مبهم هستند. تحقیق ما از ماشینی برای یادگیری استفاده می کند بررسی چشم باز و بسته شدن در فیلم ها را بررسی کنید.

این به ما الهام بخش برای تشخیص ویدیوهای عمیق می بخشد. پس از آن، ما یک روش برای شناسایی زمانی که فرد در ویدیو چشمک می زند، توسعه می دهد. برای مشخص شدن بیشتر، هر فریم ویدیو مورد نظر را اسکن می کند، چهره های آن را تشخیص می دهد و سپس چشم ها را به طور خودکار قرار می دهد. سپس با استفاده از یکی دیگر از شبکه های عصبی عمیق برای تعیین اینکه آیا چشم تشخیص باز و یا نزدیک است، با استفاده از ظاهر چشم، ویژگی های هندسی و حرکت است.

ما می دانیم که کار ما استفاده از نقص در نوع داده ها در دسترس برای آموزش الگوریتم های عمیق جعلی است. برای جلوگیری از سقوط شکار به یک نقص مشابه، ما سیستم ما را در یک کتابخانه بزرگ از تصاویر چشمها باز و بسته تعلیم دادیم. به نظر می رسد این روش به خوبی کار می کند و در نتیجه ما میزان تشخیص درصد بیش از 95 را به دست آورده ایم.

مطمئنا این نکته نهایی در تشخیص فرورفتگی نیست. این تکنولوژی است بهبود سریعو رقابت بین تولید و شناسایی فیلم های جعلی مشابه بازی شطرنج است. به طور خاص، با استفاده از تصاویر چهره با چشمان بسته و یا استفاده از توالی های ویدئویی برای آموزش، می توان از چشمک زدن به فیلم های عمیق ضمیمه اضافه کرد. افرادی که می خواهند جامعه را به اشتباه بفروشند، در ساخت فیلم های دروغین بهتر خواهند شد - و ما و دیگران در جامعه فناوری، باید همچنان به یافتن راه های شناسایی آنها ادامه دهند.The Conversation

درباره نویسنده

سیوی لیو، دانشیار علوم کامپیوتر؛ مدیر، چشم انداز کامپیوتر و آزمایشگاه ماشین آموزش، دانشگاه آلبانی، دانشگاه ایالتی نیویورک

این مقاله در اصل در تاریخ منتشر شد گفتگو. دفعات بازدید: مقاله.

کتاب های مرتبط

at InnerSelf Market و آمازون