هوش مصنوعی اکنون می تواند رفتارهای انسانی را تحقق بخشد و به زودی آن را به خطر می اندازد

هوش مصنوعی اکنون می تواند رفتارهای انسانی را تحقق بخشد و به زودی آن را به خطر می اندازدآیا این فقط یک مونتاژ بیت های کامپیوتری است؟ PHOTOCREO Michal Bednarek / Shutterstock.com

وقتی سیستم های هوش مصنوعی شروع به خلاق شدن می کنند، می توانند چیزهای زیادی را ایجاد کنند - و آنهایی که ترسناک هستند. به عنوان مثال، یک برنامه AI که اجازه دهید کاربران وب موسیقی را تشکیل می دهند همراه با یوهان سباستین باخ مجازی با وارد کردن یادداشت ها به برنامه ای که هارمونی های باخ را برای آنها مطابقت می دهد.

اجرا توسط گوگل، برنامه درو بزرگ ستایش برای نوآوری و سرگرم کننده برای بازی با. همچنین جذب شد انتقاد، و نگرانی در مورد خطرات AI را افزایش داد.

مطالعه من از چگونگی فناوری های در حال ظهور بر زندگی افراد تاثیر می گذارد به من آموخته است که مشکلات فراتر از نگرانی های قابل توجهی در مورد آن است الگوریتم ها چیست؟ واقعا میتونه ایجاد موسیقی یا هنر به طور کلی. بعضی از شکایات کوچک به نظر می رسید، اما واقعا مانند مشاهدات که AI گوگل بود شکستن قوانین اساسی از ترکیب موسیقی

در حقیقت، تلاش برای داشتن رایانه ها رفتار افراد واقعی تقلید می تواند گیج کننده باشد و به طور بالقوه مضر باشد.

فن آوری های جعل هویت

برنامه گوگل، یادداشت های 306 از آثار موسیقی باخ را تجزیه و تحلیل کرده است، ارتباط بین ملودی و یادداشت هایی که هماهنگی را ارائه می دهند، تحلیل می شود. از آنجا که باخ قوانین سختی را دنبال کرد، برنامه به طور موثری آن قوانین را یاد می گیرد، بنابراین می تواند آنها را در زمانی که کاربران یادداشت های خود را ارائه می دهند، اعمال کند.

تیم گوگل دودل برنامه باخ را توضیح می دهد.

برنامه Bach خود جدید است، اما تکنولوژی اصلی آن نیست. الگوریتم های آموزش داده شده به تشخیص الگوهای و ساختن تصمیمات احتمالی برای مدت طولانی وجود داشته است. برخی از این الگوریتم ها بسیار پیچیده هستند همیشه نمی فهمم چگونه آنها تصمیم می گیرند و یا یک نتیجه خاص را تولید می کنند.

سیستم های AI کامل نیست - بسیاری از آنها به تکیه بر داده هایی که نماینده نیستند از کل جمعیت، و یا که هستند تحت تاثیر قرار دادن انحرافات انسانی. این کاملا روشن نیست چه کسی ممکن است قانونی مسئول باشد هنگامی که یک سیستم AI خطایی ایجاد می کند یا یک مشکل را ایجاد می کند.

با این حال، تکنولوژی های هوش مصنوعی به اندازه کافی پیشرفته می شوند تا بتوانند تقریبا نوشتن یا سبک گفتار افراد و حتی بیان چهره را تقریبنمایند. این همیشه بد نیست: یک AI نسبتا ساده به استفن هاوکینگ توانایی برقراری ارتباط با پیش بینی کلمات که بیشتر از آن استفاده می کنید با دیگران کارآمد تر است.

برنامه های پیچیده ای که صداهای انسانی را تقلید می کنند کمک به افراد معلول - اما همچنین می تواند مورد استفاده قرار گیرد به فریب شنوندگان. به عنوان مثال، سازندگان Lyrebirdیک برنامه تقلید صوتی، منتشر کرده است گفتگو شبیه سازی شده بین باراک اوباما، دونالد تامپف و هیلاری کلینتون. ممکن است صدا واقعی باشد اما این مبادله هرگز رخ نداده است.

از خوب به بد

در ماه فوریه 2019، شرکت غیر انتفاعی OpenAI یک برنامه ایجاد کرد که متن را ایجاد می کند عملا از متن متناقض نیست نوشته شده توسط مردم این می تواند "نوشتن" یک سخنرانی در سبک جان اف کندی، JRR Tolkien در "ارباب حلقه ها"یا یک دانشجو نوشتن انتصاب مدرسه در مورد جنگ داخلی ایالات متحده.

متن تولید شده توسط نرم افزار OpenAI چنان باورپذیر است که شرکت انتخاب کرده است نه آزادی خود برنامه

فن آوری های مشابه می توانند عکس ها و فیلم ها را شبیه سازی کنند. به عنوان مثال، در ابتدا 2018، بازیگر و فیلمساز اردن Peele یک ویدیو ایجاد کرد که ظاهرا باراک اوباما رئیس جمهور پیشین آمریکا را نشان داد چیزهایی که اوباما هرگز گفته نشد برای هشدار عمومی به خطرات ناشی از این فن آوری ها.

مراقب باشید که چه فیلم هایی را باور دارید

در اوایل 2019، a عکس برهنه جعلی نماینده آمریکا از اسکندریه اوکسیو کورتز آنلاین. فیلم های ساخته شده، اغلب به نام "deepfakes، انتظار می رود که باشد به طور فزاینده استفاده در مبارزات انتخاباتی.

اعضای کنگره شروع به بررسی این موضوع کرده است پیش از انتخابات 2020. وزارت دفاع آمریكا آموزش عمومی می دهد چطور به فیلم های فیلم های ضبط شده نگاه کنیم و صوتی سازمان های خبری مانند رویترز شروع به آموزش روزنامه نگاران برای جلب توجه فورا می کنند.

اما، به نظر من، یک نگرانی حتی بزرگتر همچنان ادامه دارد: کاربران ممکن است قادر به یادگیری سریع نباشند تا محتوای جعلی را تشخیص دهند زیرا تکنولوژی AI پیچیده تر می شود. به عنوان مثال، همانگونه که عموم مردم شروع به فهم عمیق می دانند، AI در حال حاضر برای فراموشی های پیشرفته تر استفاده می شود. اکنون برنامه هایی وجود دارند که می توانند تولید کنند چهره های جعلی و اثر انگشت دیجیتال جعلی، به طور موثر ایجاد اطلاعات مورد نیاز برای ساخت کل یک فرد - حداقل در سوابق شرکت یا دولت.

ماشین آلات یادگیری را حفظ می کنند

در حال حاضر اشتباهات بالقوه کافی در این فن آوری ها وجود دارد که به مردم امکان تشخیص آماده سازی دیجیتال را می دهد. سازنده باخ گوگل برخی اشتباهات انجام داده اند متخصص می تواند تشخیص دهد. به عنوان مثال، زمانی که من آن را امتحان کردم، برنامه اجازه ورود به من را داد پنجم موازی، فاصله موسیقی که باخ به شدت اجتناب کرد. برنامه همچنین قوانین موسیقی را نقض کرد با هماهنگ کردن ملودی ها در کلید اشتباه به طور مشابه، برنامه نوشتاری OpenAI گاه گاهی عباراتی مانند "آتش سوزی اتفاق می افتد زیر آب"که در زمینه های خود حساس نیستند.

همانطور که توسعه دهندگان بر روی آثار خود کار می کنند، این اشتباهات نادر تر می شود. به طور موثر، تکنولوژی های AI تکامل و یادگیر خواهند شد. عملکرد بهبود یافته بالقوه می تواند بسیاری از مزایای اجتماعی - از جمله مراقبت های بهداشتی بهتر، به عنوان برنامه های AI کمک کند دموکراتیزه کردن عمل پزشکی.

آزادی محققان و شرکت ها برای تحقیق در مورد این دستاوردهای مثبت از سیستم های هوش مصنوعی، به معنی باز شدن خطر پیشرفت های پیشرفته تر برای ایجاد فریب و سایر مشکلات اجتماعی است. به شدت محدود کردن تحقیق AI می تواند جلوگیری از پیشرفت. اما دادن فن آوری های مفید اتاق به رشد به نظر کم هزینه میرسد - و احتمال استفاده صحیح از آن، چه موزیک یا موسیقی غلط "باخ" یا ناسازگاری با میلیونها نفر، به احتمال زیاد در حال رشد است که مردم هنوز نمیتوانند پیشبینی کنند.گفتگو

درباره نویسنده

آنا سانتوس روتچمن، استاديار حقوق، دانشگاه سنت لوئیس

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.

کتاب های مرتبط

{amazonWS: searchindex = کتابها؛ کلید واژه = هوش مصنوعی؛ maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

به دنبال InnerSelf در

فیس بوک، آیکونتوییتر آیکونrss-icon

دریافت آخرین با ایمیل

{emailcloak = خاموش}

بیشترین مطلب خوانده شده

چالش های سازنده ی سازگاری 30-Day
چالش های سازنده ی سازگاری 30-Day
by اما مارلین، دکترا