4 راه های جستجوی گوگل و رسانه های اجتماعی بر فرصت های شما در زندگی تاثیر می گذارد
شاتر.

این که آیا شما متوجه یا رضایت دارید یا نه، داده های بزرگ می توانند بر شما تاثیر بگذارد و زندگی شما را چگونه زندگی کنند. داده هایی که ما با استفاده از رسانه های اجتماعی ایجاد می کنیم گشت و گذار در اینترنت و پوشیدن ردیاب های تناسب اندام همه جمع آوری، دسته بندی و استفاده می شود توسط کسب و کار و دولت برای ایجاد پروفایل از ما. سپس این پروفایل ها برای تبلیغ تبلیغات برای محصولات و خدمات به کسانی که به احتمال زیاد آنها را خریداری می کنند یا برای اطلاع از تصمیمات دولت استفاده می شود.

داده های بزرگ دولت ها و شرکت ها را قادر به دسترسی، ترکیب و تجزیه و تحلیل اطلاعات ما و ایجاد آشکار - اما ناقص است و به طور بالقوه نادرست - مشخصات زندگی ما آنها این کار را با شناسایی همبستگی ها و الگوها در اطلاعات مربوط به ما و افراد با پروفایل های مشابه به ما انجام می دهند تا پیش بینی هایی را درباره آنچه که ممکن است انجام دهیم انجام می دهند.

اما فقط به این دلیل که تجزیه و تحلیل داده های بزرگ بر اساس الگوریتم ها و آمار است، به این معنا نیست که آنها هستند دقیق، بی طرف یا ذاتا هدف. و در حالی که داده های بزرگ ممکن است بینش های مربوط به رفتار گروهی را ارائه دهند، این ها لزوما یک روش قابل اعتماد برای تعیین رفتار فردی نیستند. در واقع، این روش ها می توانند درب را به تبعیض باز کنید و تهدید حقوق بشر مردم است - آنها حتی می توانند در برابر شما کار کنند. در اینجا چهار نمونه وجود دارد که تجزیه و تحلیل داده های بزرگ می تواند منجر به بی عدالتی شود.

1 محاسبه نمرات اعتبار

داده های بزرگ را می توان برای تصمیم گیری در مورد استفاده می شود واجد شرایط بودن اعتبار، تاثیر می گذارد که آیا شما یک وام مسکن دریافت می کنید، و یا چقدر شما را بالا می برد بیمه اتومبیل حق بیمه باید باشد این تصمیمات ممکن است توسط شما مطلع شود پست های رسانه های اجتماعی و داده ها از برنامه های دیگر، که برای نشان دادن سطح خطر و یا قابلیت اطمینان خود گرفته شده است.

اما داده هایی مانند زمینه تعلیم و تربیه یا جایی که زندگی می کنید ممکن است برای چنین ارزشیابی مناسب و قابل اعتماد نباشند. این نوع داده ها می تواند به عنوان یک پروکسی برای وضعیت مسابقه یا وضعیت اجتماعی-اقتصادی عمل کند و استفاده از آن برای تصمیم گیری در مورد ریسک اعتباری می تواند منجر به تبعیض شود.


گرافیک اشتراک درونی


2 جستجوهای شغلی

داده های بزرگ را می توان برای تعیین استفاده کرد کسی که تبلیغات شغلی را می بیند یا می تواند برای مصاحبه در لیست قرار بگیرد. آگهی های شغلی را می توان در گروه های سنی خاص هدف قرار داد مانند 25 به 36 ساله، که کارکنان جوان و سالم را حتی از دیدن برخی از پست های شغلی محروم می کند و خطر تبعیض از سن را نشان می دهد.

اتوماسیون نیز برای فیلتر کردن، مرتب سازی و رتبه بندی نامزدها کارآمدتر استفاده می شود. اما این پروسه غربالگری ممکن است افراد را بر اساس شاخص هایی نظیر فاصله رفت و آمد آنها. کارفرمایان ممکن است تصور کنند که افرادی که دارای رفت و آمد طولانی هستند احتمال بیشتری در طولانی مدت در کار خود باقی می مانند، اما در واقع می توانند در برابر افرادی که بیشتر از مرکز شهر به دلیل محل مسکن ارزان قیمت زندگی می کنند، تبعیض قائل شوند.

3 حکم قصاص و وثیقه

در ایالات متحده و بریتانیا، مدل ارزیابی ریسک داده های بزرگ برای کمک به مقامات تصمیم می گیرد که آیا افراد اعطا می شوند امضا یا وثیقهیا به آن اشاره شده است برنامه های توانبخشی. آنها همچنین می توانند مورد استفاده قرار گیرد تا ارزیابی میزان خطر یک مجرم را برای جامعه نشان دهند، که یکی از عوامل محسوب می شود که قاضی می تواند هنگام تصمیم گیری در مورد حکم را مورد توجه قرار دهد.

دقیقا مشخص نیست که چه داده هایی برای کمک به این ارزیابی ها استفاده می شود، اما به عنوان حرکت به سمت پلیس دیجیتال به سرعت در حال جمع شدن است، به احتمال زیاد این برنامه ها اطلاعات منبع باز مانند فعالیت اجتماعی مدنی - اگر آنها قبلا نباشند.

این ارزیابی ها ممکن است فقط به نمایه شخص نگاهی نداشته باشند، بلکه این که چگونه آنها را با دیگران مقایسه می کنند. برخی از نیروهای پلیس تاریخی بیش از پلیس است جوامع اقلیت خاص، منجر به تعداد نامتناهی از حوادث جنایی گزارش شده است. اگر این داده ها به یک الگوریتم تغذیه شوند، مدل های ارزیابی ریسک را تحریف می کنند و منجر به تبعیض می شود که به طور مستقیم تاثیر می گذارد حق آزادی فرد.

4 بررسی درخواست ویزا

سال گذشته، آژانس مهاجرت و ترخیص کالا از گمرک ایالات متحده (ICE) اعلام کرد که می خواهد یک "ارزیابی ویزای شدید"برنامه این به طور خودکار و به طور مداوم حسابهای رسانه های اجتماعی را اسکن می کند تا ارزیابی کند که آیا متقاضیان "نقش مثبت" را در ایالات متحده ایجاد می کنند یا اینکه آیا مسائل امنیتی ملی ممکن است بوجود آیند.

علاوه بر ارائه خطرات به آزادی اندیشه، عقاید، بیان و ارتباط، خطرات قابل توجهی وجود دارد که این برنامه در برابر افراد ملیت ها یا ادیان خاص تبعیض ایجاد می کند. مفسران آن را به عنوان "ممنوعیت مسلمان توسط الگوریتم" مشخص می کند.

برنامه اخیرا اخراج شد، گزارش شده است بر اساس این که "هیچ نرم افزار" خارج از جعبه "وجود دارد که می تواند کیفیت نظارت آژانس خواستار ارائه". اما از جمله اهداف چنین اهدافی در اسناد تهیه می تواند انگیزه های بد برای صنعت فناوری را برای توسعه برنامه هایی که بر اساس طراحی تبعیض آمیز ایجاد می کنند، ایجاد کند.

گفتگوهیچ مشکلی وجود ندارد که تجزیه و تحلیل داده های بزرگ به گونه ای عمل کند که بتواند فرصت های افراد در زندگی را تحت تأثیر قرار دهد. اما عدم شفافیت در مورد چگونگی جمع آوری، استفاده و به اشتراک گذاشتن داده های بزرگ، مردم برای دانستن اینکه چه اطلاعاتی استفاده می شوند، چه زمانی و چه زمانی، دشوار است. تجزیه و تحلیل داده های بزرگ برای افراد آسان است که بتوانند اطلاعات خود را از استفاده نامناسب محافظت کنند. در عوض، دولت ها و شرکت ها باید مقررات و مقررات را ایجاد کنند تا اطمینان حاصل شود که استفاده از داده های بزرگ آنها منجر به تبعیض نمی شود.

درباره نویسنده

لورنا مک گرگور، مدیر مرکز حقوق بشر، مدافع و مدیرعامل، حقوق بشر ESRC، داده بزرگ و تکنولوژی بزرگ Grant، دانشگاه اسکس؛ دارغ موری، مدرس حقوق بین الملل حقوق بشر در دانشکده حقوق اسکس، دانشگاه اسکسو Vivian Ng، محقق ارشد حقوق بشر، دانشگاه اسکس

این مقاله در اصل در تاریخ منتشر شد گفتگو. دفعات بازدید: مقاله.

کتابهای اینها

درباره نویسنده

at