تقسیم دیجیتال جدید بین افرادی است که از الگوریتم خارج می شوند و افرادی که نمی کنند آیا می دانید چه اتفاقی می افتد هنگامی که داده ها را به اشتراک می گذارید؟ mtkang / shutterstock.com

هر جنبه ای از زندگی را می توان با الگوریتم های هوش مصنوعی هدایت کرد - از انتخاب مسیری که برای صبحانه به مسافرت می برد، تصمیم می گیرید چه کسی برای گرفتن تاریخ، به مسائل قانونی و قضایی پیچیده مانند نظارت پیش بینی شده.

شرکت های فن آوری های بزرگ مانند گوگل و فیس بوک از AI استفاده می کنند تا بینش های خود را از اطلاعات مشتریان دقیق کسب کنند. این به آنها اجازه می دهد تا از طریق شیوه هایی مانند هدف گیری میکرو، یک استراتژی که توسط تبلیغکنندگان برای محدود کردن مجموعه خاصی از کاربران استفاده می شود، از گزینه های جمعی کاربران بهره مند شوند.

به موازات، بسیاری از مردم در حال حاضر به سیستم عامل ها و الگوریتم ها بیشتر از دولت های خود و جامعه مدنی اعتماد دارند. یک مطالعه اکتبر 2018 نشان داد که مردم "قدردانی الگوریتم، "به طوری که آنها به مشاوره بیشتر تکیه می کنند، زمانی که آنها فکر می کنند از یک الگوریتم از یک انسان است.

در گذشته، کارشناسان فناوری در مورد یک مورد نگران بودند "تقسیم دیجیتال" بین کسانی که می توانند به رایانه و اینترنت و کسانی که نمی توانند دسترسی داشته باشند. خانواده های دارای دسترسی کمتر به فناوری های دیجیتال در توانایی های خود در معرض خطر هستند پول و مهارت های خود را جمع آوری کنید.


گرافیک اشتراک درونی


اما، به عنوان دستگاه های دیجیتال تکثیر، تقسیم دیگر فقط در مورد دسترسی است. مردم چگونه با بیش از حد اطلاعات و فراوانی تصمیمات الگوریتمی که در هر جنبه ای از زندگی خود نفوذ می کنند، مقابله می کنند؟

کاربران جنجالی دور از دستگاه ها حرکت می کنند و آگاه می شوند که چگونه الگوریتم ها بر زندگی آنها تاثیر می گذارد. در همین حال، مصرف کنندگان که اطلاعات کمتری دارند، بر الگوریتم های بیشتری برای تصمیم گیری خود استفاده می کنند.

آیا باید وصل بشوید یا از برق جدا شوید؟ pryzmat / shutterstock.com

سس مخفی در پشت هوش مصنوعی

دلیل اصلی شکاف دیجیتالی جدید، به نظر من، به عنوان کسی که سیستم اطلاعاتی را مطالعه می کند، این است بنابراین تعداد کمی از مردم درک می کنند که چگونه الگوریتم ها کار می کنند. برای اکثریت کاربران، الگوریتم ها به عنوان یک جعبه سیاه دیده می شوند.

الگوریتم های AI داده ها را برآورده می کنند، آنها را به یک مدل ریاضی مناسب می کند و پیش بینی می کند، اعم از چه آهنگهایی ممکن است لذت ببرید به چند سال است که کسی باید در زندان بماند. این مدل ها بر اساس داده های گذشته و موفقیت مدل های قبلی توسعه یافته و بهینه شده اند. اکثر مردم - حتی گاهی الگوریتم خود طراحان - واقعا نمی دانند که چه چیزی در داخل مدل قرار می گیرد.

محققان مدتهاست که نگران هستم درباره عدالت الگوریتمی. به عنوان مثال، ابزار استخدام مبتنی بر AI آمازون به دست آورد رد کردن نامزد زن. سیستم آمازون انتخابی استخراج شد کلمات به طور ضمنی جنسیت - کلماتی که مردان بیشتر در سخنرانی روزمره از جمله "اعدام" و "دستگیر" استفاده می کنند.

سایر مطالعات نشان داده است که الگوریتم های قضایی نژادپرستانه است و متهمان سیاه پوست را به مدت طولانی تر نسبت به دیگران محکوم می کنند.

مردم به عنوان بخشی از مقررات حفاظت کلی داده های اخیر که در اتحادیه اروپا به تصویب رسید، مردم دارند "حق توضیح" از معیارهایی که الگوریتم ها در تصمیماتشان استفاده می کنند. این قانون، روند تصمیم گیری الگوریتمی را مانند یک کتاب دستورالعمل رفتار می کند. تفکر می رود که اگر شما این دستور را درک کنید، می توانید ببینید که چگونه الگوریتم بر زندگی شما تأثیر می گذارد.

در همین حال، برخی از محققان AI برای الگوریتم هایی که تحت تاثیر قرار می گیرند، تحت فشار قرار گرفته اند عادلانه، پاسخگو و شفاف است، و همچنین قابل تفسیر استبه این معنی که آنها باید تصمیمات خود را از طریق فرایندهایی که انسان ها می توانند درک و اعتماد داشته باشند، به رسمیت می رسانند.

اثر شفاف چیست؟ که در یک مطالعهدانش آموزان با الگوریتم درجه بندی شدند و سطوح مختلفی از توضیح در مورد اینکه چگونه امتیازات همسالانشان برای رسیدن به نمره ی پایانی تنظیم شد، ارائه شده است. دانش آموزان با توضیحات شفاف تر، الگوریتم را کمتر مورد اعتماد قرار می دهند. این، دوباره، تقسیم دیجیتال را نشان می دهد: آگاهی الگوریتمی منجر به اعتماد بیشتر به سیستم نمی شود.

اما شفافیت یک پانویس نیست. حتی زمانی که فرایند کلی الگوریتم طراحی شده است، جزئیات ممکن است هنوز هم پیچیده باشند برای کاربران به درک. شفافیت تنها به کاربرانی که به اندازه کافی پیچیده هستند، به درک پیچیدگی الگوریتم ها کمک خواهد کرد.

به عنوان مثال، در 2014، بن برنانکی، رئیس سابق صندوق فدرال، در ابتدا بود یک سیستم بازپرداخت وام مسکن را توسط یک سیستم خودکار رد کرد. اکثر افرادی که تقاضای تقاضای این نوع وام را دارند، نمی فهمند که چگونه الگوریتم ها اعتبار آنها را تعیین می کنند.

الگوریتم امروز چه می گوید؟ ماریا Savenko / shutterstock.com

انتخاب کردن از اکوسیستم اطلاعات جدید

در حالی که الگوریتم ها بر روی بسیاری از افراد زندگی تاثیر می گذارد، فقط یک بخش کوچکی از شرکت کنندگان به اندازه کافی پیچیده هستند تا به طور کامل درگیر شوند چگونه الگوریتم ها بر زندگی آنها تاثیر می گذارد.

آمار زیادی در مورد تعداد افرادی که الگوریتم آگاه هستند وجود ندارد. مطالعات شواهد نشان داده اند اضطراب الگوریتمی، منجر به عدم تعادل عمیق قدرت بین سیستم عامل هایی که الگوریتم ها را اعمال می کنند و کاربرانی که به آنها وابسته هستند.

یک مطالعه در مورد استفاده از فیس بوک متوجه شد که هنگامی که شرکت کنندگان از الگوریتم فیس بوک برای تهیه اخبار خبری اطلاع داشتند، در مورد 83 درصد شرکت کنندگان رفتار خود را تغییر دادند تا سعی در استفاده از الگوریتم داشته باشند، در حالی که 10 درصد استفادهشان از فیس بوک را کاهش داد.

یک گزارش 2018 نوامبر از مرکز تحقیقاتی Pew دریافت که اکثریت مردم عمدتا نگرانی های قابل توجهی در مورد استفاده از الگوریتم های استفاده خاص دارند. این نشان داد که 66٪ تصور می کرد که الگوریتم برای ارزیابی نمرات مالی شخصی، منصفانه نیست، در حالی که 57٪ در مورد نمایش خودکار رزومه نیز چنین گفت.

کسری کوچکی از افراد کنترل برخی از چگونگی استفاده از الگوریتم های اطلاعات شخصی خود را دارند. به عنوان مثال، پلت فرم Hu-Manity به کاربران اجازه می دهد گزینه ای برای کنترل میزان جمع آوری داده های آنها است. دایره المعارف آنلاین Everipedia کاربران را قادر می سازد که در فرایند مراقبت از مشارکت کنندگان شرکت کنند، به این معنی که کاربران همچنین می توانند کنترل کنند که چگونه اطلاعات جمع شده و به آنها ارائه می شود.

با این حال، اکثریت قریب به اتفاق سیستم عامل ها چنین انعطاف پذیری را برای کاربران نهایی خود ارائه نمی دهند و یا حق انتخاب این که چگونه الگوریتم از تنظیمات آنها در تهیه خوراک خبری خود و یا توصیه به آنها استفاده کند. اگر گزینه ها وجود دارد، ممکن است کاربران در مورد آنها بدانند. در مورد 74٪ از کاربران فیس بوک در نظرسنجی گفتند که آنها بودند نمی دانم چگونه پلت فرم منافع شخصی خود را مشخص می کند.

به نظر من، سواد دیجیتالی جدید از کامپیوتر یا اینترنت استفاده نمی کند بلکه درک و ارزیابی پیامدهای یک شیوه زندگی همیشه متصل است.

این شیوه زندگی تأثیر معناداری دارد چگونه مردم با دیگران ارتباط برقرار می کنند؛ در توانایی آنها توجه به اطلاعات جدید؛ و در پیچیدگی فرایندهای تصمیم گیری آنها.

افزایش اضطراب الگوریتمی همچنین می تواند با تغییرات موازی در اقتصاد آشکار شود. گروه کوچکی از افراد هستند گرفتن دستاوردها از اتوماسیون، در حالی که بسیاری از کارگران در یک است موقعیت نامساعد.

انتخاب کردن از الگوریتم curation یک لوکس است - و می تواند یک روز یک نماد ثروت در دسترس تنها برای چند انتخاب است. پس از آن پرسش این است که چه آسیب های قابل اندازه گیری برای کسانی که در سمت اشتباه تقسیم دیجیتال قرار دارند خواهد بود.

درباره نویسنده

آنجانا سوزارلا، دانشیار سیستم های اطلاعاتی، دانشگاه ایالتی میشیگان

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.

کتاب های مرتبط

at InnerSelf Market و آمازون