الگوریتم های YouTube ممکن است مردم را رادیکال کند - اما مشکل واقعی ما ایده ای نداریم که چگونه آنها کار می کنند آقای Tempter / Shutterstock

آیا YouTube افراطیون ایجاد می کند؟ آ مطالعه اخیر دانشمندان با این استدلال که الگوریتم های قدرت سایت به رادیکال کردن افراد با توصیه فیلم های شدیدتر کمک نمی کند ، باعث ایجاد استدلال در بین دانشمندان شد. پیشنهاد شده است در سالهای اخیر.

مقاله ، ارسال شده به ژورنال دسترسی آزاد ، دوشنبه اول ، اما هنوز به طور رسمی مورد بررسی قرار نمی گیرد ، توصیه های ویدیویی را که توسط انواع مختلف کانال دریافت شده است ، مورد تجزیه و تحلیل قرار داد. ادعا كرد كه الگوریتم YouTube از کانالهای اصلی رسانه ای بیش از محتوای مستقل طرفداری می كند و نتیجه می گیرد كه رادیكال شدن بیشتر مربوط به افرادی است كه نسبت به الگوریتم سایت محتوای مضر ایجاد می كنند.

متخصصان این رشته سریع وارد شدند پاسخ به مطالعهبا انتقاد برخی روشهای مقاله و برخی دیگر که استدلال می کردند این الگوریتم یکی از این موارد بودند چندین عامل مهم و آن علوم داده به تنهایی جواب ما را نخواهد داد.

مشکلی که در این بحث وجود دارد این است که ما واقعاً نمی توانیم به این سؤال پاسخ دهیم که الگوریتم YouTube چه نقشی در رادیکال کردن افراد دارد زیرا ما درک نمی کنیم که چگونه کار می کند. و این فقط علامت یک مشکل بسیار گسترده تر است. این الگوریتم ها نقش مهمی در زندگی روزمره ما دارند اما فاقد هر نوع شفافیت هستند.

این سخت است که استدلال کنید که YouTube نقشی در رادیکال سازی ندارد. این نخستین بار توسط Zeynep Tufekci ، جامعه شناس فناوری ، بیان شد ، که نشان می دهد چگونه فیلم های توصیه شده به تدریج کاربران را هدایت می کنند به سمت محتوای شدیدتر. به تعبیر توفکچی ، فیلم ها در مورد آهسته دویدن منجر به فیلم هایی در مورد اجرای اولترا ماراتون ها ، فیلم ها در مورد واکسن ها منجر به تئوری های توطئه می شود و فیلم ها در مورد سیاست منجر به "انکار هولوکاست و دیگر محتوای مزاحم" می شود.


گرافیک اشتراک درونی


این نیز در مورد نوشته شده است در جزئیات توسط کارمند سابق YouTube Guillaume Chaslot که روی الگوریتم توصیه سایت کار کرده است. از زمان عزیمت به شرکت ، Chaslot به تلاش خود برای ارائه این توصیه ها ادامه داده است شفاف تر. او می گوید توصیه های YouTube نسبت به این موضوع مغرضانه است نظریه های توطئه و فیلم های واقعاً نادرست، که با این وجود باعث می شود مردم وقت بیشتری را در سایت بگذرانند.

در واقع، به حداکثر رساندن مدت زمان مشاهده تمام نکته های الگوریتم های YouTube است ، و این سازندگان ویدیو را تشویق می کند تا از هر راه ممکن برای جلب توجه بجنگند. شرکت عالی عدم شفافیت در مورد دقیقا چگونگی این کار ، مبارزه با رادیکال شدن در سایت تقریبا غیرممکن است. از این گذشته ، بدون شفافیت ، دشوار است بدانید چه چیزی می تواند برای بهبود اوضاع تغییر کند.

الگوریتم های YouTube ممکن است مردم را رادیکال کند - اما مشکل واقعی ما ایده ای نداریم که چگونه آنها کار می کنند نحوه کار الگوریتم YouTube همچنان یک راز است. دنی / شوتستروک کیست

اما YouTube از این نظر غیر عادی نیست. عدم شفافیت در مورد نحوه کار الگوریتم ها معمولاً هر زمان که از آنها در سیستم های بزرگ استفاده می شود ، چه توسط شرکت های خصوصی و چه توسط نهادهای عمومی. الگوریتم های یادگیری ماشین و همچنین تصمیم گیری در مورد اینکه کدام فیلم برای نشان دادن بعدی شما تصمیم می گیرد ، اکنون مورد استفاده قرار گرفته است کودکان را در مدارس قرار دهیدتصمیم بگیرید احکام زندانتعیین کنید نمرات اعتباری و نرخ بیمه، و همچنین سرنوشت مهاجران, نامزدهای شغلی و متقاضیان دانشگاه. و معمولاً ما نمی فهمیم چگونه این سیستم ها تصمیمات خود را می گیرند.

محققان روشهای خلاقانه ای برای اثرگذاری تأثیر این الگوریتم ها بر جامعه پیدا کرده اند ، خواه با بررسی این روش افزایش حق ارتجاعی یا گسترش نظریه های توطئه در YouTube یا نشان دادن چگونگی موتورهای جستجو تعصبات نژادپرستی را منعکس می کنند از افرادی که آنها را می آفریند.

سیستمهای یادگیری ماشینی معمولاً بزرگ ، پیچیده و مات هستند. متناسب با آن ، آنها اغلب به عنوان توصیف می شوند جعبه های سیاه، از آنجا که اطلاعات وارد می شوند ، و اطلاعات یا اقدامات بیرون می آیند ، اما هیچ کس نمی تواند ببیند که در بین چه می گذرد این بدان معناست که ، از آنجا که ما دقیقاً نمی دانیم الگوریتم هایی مانند سیستم توصیه YouTube چگونه کار می کنند ، تلاش می کنیم نحوه کار سایت را مانند تلاش برای فهمیدن یک ماشین بدون باز کردن درپوش بفهمیم.

به نوبه خود ، این بدان معنی است که تلاش برای نوشتن قوانینی برای تنظیم آنچه که الگوریتم ها باید یا نباید انجام دهند ، تبدیل به یک فرآیند کور یا آزمایش و خطا می شود. این همان چیزی است که با YouTube و بسیاری از الگوریتم های یادگیری ماشین دیگر اتفاق می افتد. ما بدون اینکه درک واقعی از نحوه عملکرد آنها داشته باشیم سعی داریم در نتایج آنها حرفی برای گفتن داشته باشیم. ما باید این فناوری های ثبت شده را باز کنیم یا حداقل آنها را به اندازه کافی شفاف کنیم که بتوانیم آنها را تنظیم کنیم.

توضیحات و آزمایش

یکی از راه های انجام این کار برای ارائه الگوریتم ها خواهد بود توضیحات ضد واقعیت همراه با تصمیماتشان این بدان معناست که کار کردن حداقل شرایط لازم برای الگوریتم برای تصمیم گیری متفاوت ، بدون توصیف منطق کامل آن است. به عنوان مثال ، یک الگوریتم که در مورد وام های بانکی تصمیم می گیرد ، می تواند نتیجه ای را به بار آورد که می گوید: "اگر بالای 18 سال داشتید و بدهی قبلی نداشتید ، وام بانکی خود را قبول می کردید". اما این ممکن است برای یوتیوب و سایر سایتهایی که از الگوریتم های توصیه استفاده می کنند دشوار باشد ، زیرا در تئوری هر ویدئویی روی سیستم عامل می تواند در هر نقطه توصیه شود.

ابزار قدرتمند دیگر آزمایش و ممیزی الگوریتم است که به ویژه در تشخیص الگوریتم های مغرضانه مفید بوده است. در یک مورد اخیر ، یک شرکت نمایشگر رزومه حرفه ای کشف کرد که الگوریتم آن است اولویت بندی دو عامل به عنوان بهترین پیش بینی کننده عملکرد شغلی: آیا نامزد نامزد جارد بود ، و اگر در دبیرستان لاکروس بازی می کردند. این چیزی است که وقتی دستگاه بدون نظارت انجام می شود ، اتفاق می افتد.

در این حالت ، الگوریتم غربالگری رزومه متوجه شده است که مردان سفید پوست شانس بیشتری برای استخدام دارند و ویژگی های همبستگی پراکسی (مانند نام بردن از جارد یا بازی لاکروز) را در نامزدهای استخدام شده مشاهده کرده اند. با یوتیوب ، حسابرسی الگوریتم می تواند در درک انواع ویدیوها برای توصیف در اولویت قرار بگیرد - و شاید به بحث در مورد اینکه آیا توصیه های YouTube به رادیکال شدن کمک می کند ، کمک کند.

ارائه توضیحات خلاف واقع یا استفاده از ممیزی الگوریتم یک فرآیند دشوار و پرهزینه است. اما این مهم است ، زیرا بدیل بدتر است. اگر الگوریتم ها بررسی و کنترل نشده شوند ، می توانیم شاهد یک تدریجی نظریه پردازان توطئه و افراط گرایان در رسانه های خود باشیم و توجه ما از طرف هرکسی که بتواند سودآورترین محتوا را کنترل کند ، شاهد هستیم.گفتگو

درباره نویسنده

Chico Q. Camargo ، محقق فوق دکترا در علوم داده ، دانشگاه آکسفورد

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.