چگونه محققان خود را برای موج آینده تبلیغات عمیق آماده می کنند

چگونه محققان خود را برای موج آینده تبلیغات عمیق آماده می کنند
ردیاب های مجهز به هوش مصنوعی بهترین ابزار برای ردیابی فیلم های جعلی تولید شده توسط هوش مصنوعی هستند.
واشنگتن پست از طریق گتی ایماژ

یک روزنامه نگار تحقیقی ویدیویی را از یک افشاگر ناشناس دریافت می کند. این نشان می دهد که یک کاندیدای ریاست جمهوری به فعالیت غیرقانونی اعتراف کرده است. اما آیا این ویدئو واقعی است؟ در این صورت ، این خبر بزرگی خواهد بود - یک پیمانه یک عمر - و می تواند کاملاً انتخابات آینده را تغییر دهد. اما روزنامه نگار فیلم را از طریق ابزاری تخصصی اجرا می کند ، که به او می گوید فیلم آنطور که به نظر می رسد نیست. در واقع ، این یک "deepfake، "یک فیلم ساخته شده با استفاده از هوش مصنوعی با یادگیری عمیق.

روزنامه نگاران در سراسر جهان به زودی می توانند از ابزاری مانند این استفاده کنند. در طی چند سال ، ابزاری مانند این حتی می تواند توسط همه مورد استفاده قرار گیرد تا محتوای جعلی را در منابع خبری شبکه های اجتماعی خود ریشه یابی کند.

As محققان که در حال بررسی تشخیص عمیق جعلی بوده اند و در حال توسعه ابزاری برای روزنامه نگاران ، آینده این ابزارها را می بینیم. اگرچه آنها همه مشکلات ما را حل نخواهند کرد ، و آنها فقط یک بخش از زرادخانه ها در مبارزه گسترده با ضد اطلاعات هستند.

مشکل deepfakes

اکثر مردم می دانند شما نمی توانید هر آنچه را می بینید باور کنید. در طول چند دهه گذشته ، مصرف کنندگان اخبار باهوش به دیدن تصاویر دستکاری شده با نرم افزار ویرایش عکس عادت کرده اند. ویدئوها ، داستان دیگری است. کارگردانان هالیوود می توانند میلیون ها دلار صرف جلوه های ویژه کنند تا صحنه ای واقع گرایانه بسازند. اما با استفاده از deepfakes ، آماتورهایی که چند هزار دلار تجهیزات رایانه ای دارند و چند هفته وقت صرف می کنند ، می توانند چیزی تقریباً به زندگی واقعی بدهند.

Deepfakes امکان قرار دادن افراد در صحنه های سینمایی را که هرگز در آنها نبودند فراهم می کند - فکر می کنم تام کروز در نقش مرد آهنی - که باعث ایجاد فیلم های سرگرم کننده می شود. متأسفانه ایجاد آن را نیز ممکن می سازد پورنوگرافی بدون رضایت از مردم به تصویر کشیده شده است. تاکنون ، این افراد ، تقریباً همه زنان ، بزرگترین قربانیان سو when استفاده از فناوری deepfake هستند.

همچنین می توان از Deepfakes برای ایجاد فیلم هایی از رهبران سیاسی که مواردی را که هرگز نگفته اند ، استفاده کرد. حزب سوسیالیست بلژیک ویدیویی جعلی بدون جعل اما هنوز جعلی از آن منتشر کرد توهین رئیس جمهور ترامپ به بلژیک، که به اندازه کافی واکنش نشان داد تا خطرات احتمالی ساخت ترفندهای با کیفیت بالاتر را نشان دهد.


هانی فرید از دانشگاه کالیفرنیا ، برکلی توضیح می دهد که چگونه جعل عمیق ساخته می شود.

آخرین مطالب را از InnerSelf دریافت کنید


شاید ترسناک تر از همه، می توان از آنها برای ایجاد استفاده کرد در مورد محتوای فیلم های واقعی شک کنید، با این پیشنهاد که آنها می توانند تقلبی عمیق باشند.

با توجه به این خطرات ، بسیار مهم خواهد بود که بتوانید عمیق کاذب را تشخیص داده و به وضوح برچسب گذاری کنید. این اطمینان می دهد که فیلم های جعلی مردم را گول نمی زند و فیلم های واقعی را می توان به عنوان معتبر دریافت کرد.

لکه گیری تقلبی

تشخیص عمیق جعلی به عنوان یک زمینه تحقیق کمی بیشتر آغاز شد سه سال پیش. کارهای اولیه بر روی شناسایی مشکلات قابل مشاهده در فیلم ها مانند موارد دیگر بود deepfakes که پلک نمی زد. با گذشت زمان ، اما ، جعلی ها بهتر شده اند در تقلید از فیلم های واقعی و تشخیص آن برای افراد و ابزارهای تشخیص دشوارتر می شود.

تحقیقات ردیابی عمیق دو دسته عمده وجود دارد. اولی شامل می شود نگاه کردن به رفتار مردم در فیلم ها فرض کنید فیلمهای زیادی از شخصی معروف مانند پرزیدنت اوباما دارید. هوش مصنوعی می تواند از این ویدئو برای یادگیری الگوهای او ، از حرکات دست گرفته تا مکث در گفتار ، استفاده کند. پس می تواند دروغگویی عمیق او را تماشا کنید و توجه کنید که با آن الگوها مطابقت ندارد. این روش حتی اگر کیفیت فیلمبرداری کاملاً عالی باشد ، این مزیت را دارد که احتمالاً کار می کند.


آرون لاوسون ، خبرنگار SRI International ، روشی را برای شناسایی جعل های عمیق توصیف می کند.

محققان دیگر ، از جمله تیم ما، متمرکز شده اند تفاوت که همه deepfakes دارند در مقایسه با فیلم های واقعی فیلم های Deepfake اغلب با ادغام فریم های جداگانه ایجاد شده برای تشکیل فیلم ها ایجاد می شوند. با در نظر گرفتن این موضوع ، روش های تیم ما داده های اساسی را از فریم های جداگانه یک ویدیو از چهره استخراج می کند و سپس آنها را از طریق مجموعه ای از فریم های همزمان ردیابی می کند. این به ما امکان می دهد ناهماهنگی در جریان اطلاعات از یک قاب به قاب دیگر را تشخیص دهیم. ما برای سیستم تشخیص صوتی جعلی خود نیز از رویکردی مشابه استفاده می کنیم.

دیدن این جزئیات ظریف برای مردم سخت است ، اما نشان می دهد که عمیق کاذب بودن کاملاً مناسب نیست عالی هنوز. ردیاب هایی از این دست می توانند برای هر شخصی کار کنند ، نه فقط برای برخی از رهبران جهان. در پایان ، ممکن است به هر دو نوع ردیاب deepfake نیاز باشد.

سیستم های تشخیص اخیر در فیلم هایی که برای ارزیابی ابزار جمع آوری شده اند بسیار خوب عمل می کنند. متأسفانه ، حتی بهترین مدل ها نیز این کار را می کنند در فیلم هایی که به صورت آنلاین یافت می شوند ضعیف است. بهبود این ابزارها برای قویتر و مفید بودن ، گام بعدی است.

چه کسی باید از آشکارسازهای deepfake استفاده کند؟

در حالت ایده آل ، یک ابزار تأیید deepfake باید در دسترس همه باشد. با این حال ، این فناوری در مراحل اولیه توسعه است. محققان باید ابزارها را بهبود بخشیده و از آنها در برابر هکرها قبل از انتشار گسترده محافظت کنند.

در عین حال ، ابزار ساخت deepfakes برای هر کسی که بخواهد مردم را گول بزند ، در دسترس است. نشستن در حاشیه گزینه ای نیست. برای تیم ما توازن مناسب کار با روزنامه نگاران بود ، زیرا آنها اولین خط دفاعی در برابر گسترش اطلاعات غلط هستند.

قبل از انتشار داستان ، روزنامه نگاران باید اطلاعات را تأیید کنند. آنها قبلاً روشهای امتحان شده و درست مانند بررسی منابع و گرفتن بیش از یک نفر برای تأیید حقایق اصلی را دارند. بنابراین با قرار دادن این ابزار در دست آنها ، اطلاعات بیشتری به آنها می دهیم و می دانیم که آنها تنها به این فناوری اعتماد نخواهند کرد ، زیرا این امر می تواند اشتباهاتی را مرتکب شود.

آیا ردیاب ها می توانند در مسابقه تسلیحاتی پیروز شوند؟

دیدن تیم ها از این دلگرم کننده است فیس بوک و مایکروسافت سرمایه گذاری در فناوری برای درک و تشخیص عمیق جعلی ها. این رشته برای همگام شدن با سرعت پیشرفت در فناوری deepfake به تحقیقات بیشتری نیاز دارد.

روزنامه نگاران و سیستم عامل های رسانه های اجتماعی همچنین باید بفهمند که چگونه بهتر است هنگام شناسایی به مردم درباره تقلب های عمیق هشدار دهیم. تحقیقات نشان داده است که مردم دروغ را به خاطر می آورند، اما واقعیت دروغ بودن آن نبود. آیا این مورد در مورد فیلم های جعلی صدق می کند؟ به سادگی قرار دادن "Deepfake" در عنوان برای مقابله با برخی از انواع اطلاعات غلط کافی نیست.

Deepfakes اینجا هستند تا بمانند. مدیریت اطلاعات غلط و محافظت از مردم با قدرتمندتر شدن هوش مصنوعی بیش از هر زمان دیگری چالش برانگیز خواهد بود. ما بخشی از یک جامعه تحقیقاتی در حال رشد هستیم که این تهدید را پذیرفته ایم ، که در آن تشخیص اولین قدم است.گفتگو

درباره نویسنده

جان سهروردی ، دانشجوی دکتری علوم محاسبات و اطلاعات ، موسسه فناوری روچستر و متیو رایت ، استاد امنیت محاسبات ، موسسه فناوری روچستر

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: اصلی مقاله.

پشتیبانی از یک شغل خوب!
enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

به دنبال InnerSelf در

فیس بوک، آیکونتوییتر آیکونrss-icon

دریافت آخرین با ایمیل

{emailcloak = خاموش}

بیشترین مطلب خوانده شده

از سردبیران

خبرنامه InnerSelf: اکتبر 25 ، 2020
by InnerSelf کارکنان
"شعار" یا عنوان فرعی برای وب سایت InnerSelf "نگرش های جدید --- احتمالات جدید" است ، و این دقیقاً موضوع خبرنامه این هفته است. هدف مقالات و نویسندگان ما این است که
خبرنامه InnerSelf: اکتبر 18 ، 2020
by InnerSelf کارکنان
این روزها ما در مینی حباب زندگی می کنیم ... در خانه های خودمان ، در محل کار خود ، در مکان های عمومی و احتمالاً در ذهن خودمان و با احساسات خودمان. با این حال ، زندگی در یک حباب ، یا احساس مثل ما ...
خبرنامه InnerSelf: اکتبر 11 ، 2020
by InnerSelf کارکنان
زندگی یک سفر است و مانند اکثر سفرها با فراز و نشیب هایی همراه است. و درست مثل اینکه روز همیشه شب را دنبال می کند ، تجربه های روزمره شخصی ما نیز از تاریکی به روشن و عقب و جلو می رود. با این حال،…
خبرنامه InnerSelf: اکتبر 4 ، 2020
by InnerSelf کارکنان
ما چه از نظر فردی و چه از نظر جمعی از هر چه عبور می کنیم ، باید به یاد داشته باشیم که ما قربانیان درمانده ای نیستیم. ما می توانیم از نظر معنوی و عاطفی ، قدرت خود را برای بهبود زندگی خود بهبود ببخشیم ...
Newsletter InnerSelf: September 27، 2020
by InnerSelf کارکنان
یکی از نقاط قوت نژاد بشر توانایی ما در انعطاف پذیری ، خلاقیت و تفکر خارج از چارچوب است. اینکه کسی غیر از دیروز یا روز قبل باشیم. ما می توانیم تغییر کنیم ...