
در این مقاله
- آیا هوش مصنوعی میتواند نابرابری اقتصادی را کاهش یا تقویت کند؟
- شرکتها چگونه از هوش مصنوعی برای تثبیت قدرت استفاده میکنند؟
- نقش هوش مصنوعی اخلاقی در خدمات عمومی چیست؟
- آیا دولتها با تأثیر اجتماعی هوش مصنوعی همگام هستند؟
- چه اقداماتی میتواند تضمین کند که هوش مصنوعی برای همه مفید است؟
نابرابری هوش مصنوعی: آیا هوش مصنوعی اخلاقی ما را نجات خواهد داد یا ما را بیشتر از هم جدا خواهد کرد؟
نوشتهی الکس جردن، InnerSelf.comهوش مصنوعی با وعدهای آمد: سیستمهای هوشمندتر، تصمیمگیری سریعتر، زندگی بهتر. اما مانند هر فناوری تحولآفرین، بهایی هم داشت. اتوماسیون، مشاغل را سریعتر از آنکه جامعه بتواند جایگزین کند، از بین برده است. تصمیمگیری الگوریتمی، تعصبات موجود را تقویت کرده است. و دسترسی به ابزارهای هوش مصنوعی - چه برای آموزش، مراقبتهای بهداشتی یا امور مالی - به طور نابرابر در نژاد، طبقه و جغرافیا توزیع شده است.
طنز ماجرا اینجاست: هر چه بیشتر تصمیمگیری را دیجیتالی کنیم، بیشتر در معرض خطر جاسازی تعصبات قدیمی در سیستمهای جدید قرار میگیریم. الگوریتمهای استخدامی را در نظر بگیرید که متقاضیان را غربالگری میکنند. اگر دادههای آموزشی منعکسکننده دههها تبعیض باشند، الگوریتم فقط گذشته را تکرار نمیکند - آن را بهینه میکند. هوش مصنوعی دیگر یک راه حل نیست، بلکه به آینهای سریعتر و سردتر از نابرابری تبدیل میشود.
دنبال پول، دنبال قدرت
از خودتان بپرسید: چه کسی مالک الگوریتمها است؟ چه کسی از افزایش بهرهوری هوش مصنوعی سود میبرد؟ پاسخ، عموم مردم نیستند. تعداد انگشتشماری از شرکتها بر این حوزه تسلط دارند - از دادهها کسب درآمد میکنند، کنترل را متمرکز میکنند و قدرت را به شیوههایی شبیه به بارونهای نفت و غولهای راهآهن عصر طلایی، بازتعریف میکنند. با این تفاوت که این بار، منبع فولاد یا نفت خام نیست - بلکه اطلاعات است. و این اطلاعات از شما، من و هر کسی که میشناسیم برداشت میشود.
تمرکز ثروت فقط یک مسئله اقتصادی نیست - بلکه یک مسئله فناوری است. با افزایش مقیاس هوش مصنوعی، سود صاحبان پلتفرمها نیز افزایش مییابد. و با سرمایهگذاری شرکتهایی مانند گوگل، متا، مایکروسافت و آمازون در مدلهای هوش مصنوعی که به طور فزایندهای پیچیده میشوند، کسبوکارهای کوچک و مؤسسات دولتی عقب میمانند و برای رقابت یا حتی ادامه رقابت تلاش میکنند.
این نوآوری نیست - این حصر است. ما شاهد ظهور یک فئودالیسم جدید هستیم، فئودالیسمی که در آن دسترسی به ابزارها و دادهها تعیین میکند چه کسی از نردبان بالا میرود و چه کسی در زیر آن گیر میکند.
وقتی هوش مصنوعی به یک مانع تبدیل میشود، نه یک پل
حالا تصور کنید که شما دانشآموزی در یک منطقه روستایی هستید که سیستم آموزشی محلی توانایی خرید جدیدترین ابزارهای آموزشی مبتنی بر هوش مصنوعی را ندارد. در همین حال، یک مدرسه خصوصی ممتاز در یک مرکز شهری از تجزیه و تحلیلهای بلادرنگ برای شخصیسازی برنامه درسی هر دانشآموز استفاده میکند. یک کودک یک معلم خصوصی شخصیسازیشده در فضای ابری دریافت میکند. کودک دیگر عقب میماند. اگر این را در مراقبتهای بهداشتی، مسکن و عدالت کیفری ضرب کنید، هوش مصنوعی دیگر یک راه حل نیست و به کلاهی برای امتیازگیری تبدیل میشود.
این یک فرضیه نیست. نشان داده شده است که الگوریتمهای پیشبینیکنندهی پلیس، محلههای اقلیتها را به طور نامتناسبی هدف قرار میدهند. سیستمهای مراقبتهای بهداشتی که از ارزیابی ریسک هوش مصنوعی استفاده میکنند، بیماران سیاهپوست را کمتر از حد تشخیص دادهاند. ارزیابیهای خودکار وام، اعتبار را بر اساس پروکسیهای کد پستی که تعصب نژادی را پنهان میکنند، رد میکنند. در این سیستمها، هوش مصنوعی بیطرف نیست - بلکه بازتابی از جهانی است که ما ساختهایم، حتی تا نابرابریهای آن.
هوش مصنوعی اخلاقی: چیزی بیش از یک شعار تبلیغاتی
هوش مصنوعی اخلاقی به معنای کدگذاری مهربانی در ماشینها نیست. بلکه به معنای گنجاندن پاسخگویی، شفافیت و عدالت در کل سیستم است - از دادههایی که استفاده میکنیم گرفته تا سوالاتی که میپرسیم و نتایجی که اندازهگیری میکنیم. و در حال حاضر، این اتفاق به اندازه کافی نمیافتد.
بسیاری از توسعهدهندگان هوش مصنوعی هنوز در خلأهای اخلاقی کار میکنند. دولتها برای تنظیم ابزارهایی که به سختی آنها را درک میکنند، تقلا میکنند. و تأثیرگذارترین تصمیمات هوش مصنوعی پشت درهای بسته و به دور از نظارت عمومی یا بحثهای دموکراتیک گرفته میشود. این فقط یک شکست سیاسی نیست - بلکه یک شکست اخلاقی است.
اگر میخواهیم هوش مصنوعی در خدمت اکثریت باشد، نه فقط عدهای معدود، به چارچوبهای اخلاقیِ قاطع نیاز داریم. این به معنای حسابرسیهای مستقل، نظارت عمومی و قوانینی است که با آسیب الگوریتمی با همان جدیتِ آسیب فیزیکی برخورد کنند. همچنین به معنای اعطای جایگاهی به جوامع حاشیهنشین است - نه فقط به عنوان نقاط داده، بلکه به عنوان تصمیمگیرندگانی که نحوه استفاده از هوش مصنوعی را شکل میدهند.
سیاست، مشارکت و زیرساختهای عمومی
هیچ راه حل تکنولوژیکی برای نابرابری وجود ندارد. اما راه حلهای سیاسی وجود دارد. دولتها باید از برونسپاری تفکر خود به سیلیکون ولی دست بردارند و شروع به ساخت زیرساختهای عمومی هوش مصنوعی کنند که عدالت را محور قرار دهد. الگوریتمهای متنباز برای استفاده عمومی را تصور کنید که با ورودیهای دموکراتیک طراحی شدهاند. یک فضای مشترک ملی دادهها را تصور کنید، جایی که ارزش دادههای شخصی به افرادی که از آنها آمده است، بازگردانده میشود. اینها رویاهای واهی نیستند. اینها انتخابهای سیاسی هستند.
همانطور که جادهها و کتابخانههای عمومی ساختیم، میتوانیم زیرساختهای دیجیتالی بسازیم که برای همه کار کند. اما برای انجام این کار، باید منطق انحصارهای فناوری خصوصیشده را به چالش بکشیم و مدل جدیدی را بپذیریم: مدلی که هوش مصنوعی را نه به عنوان یک محصول، بلکه به عنوان یک ابزار عمومی میبیند.
این امر همچنین مستلزم سرمایهگذاری عظیم در آموزش - بهویژه در جوامع محروم - است تا آیندهای که در آن سواد هوش مصنوعی وجود دارد، تنها متعلق به افراد ممتاز نباشد. آیندهای عادلانه به این بستگی دارد که چه کسی سیستمهایی را که اکنون زندگی ما را کنترل میکنند، درک و شکل دهد.
دوراهی: قدم بعدی چیست؟
ما در آستانهی یک تحول تکنولوژیکی هستیم که میتواند این قرن را تعریف کند - و خطرات آن نمیتواند بیش از این باشد. اگر همچنان در این برهه از زمان خوابگردی کنیم و اجازه دهیم سیستمهای هوش مصنوعی صرفاً در خدمت سود شرکتها ساخته و مستقر شوند، در معرض خطر گرفتار شدن در آیندهای قرار میگیریم که در آن نابرابری نه تنها به یک مسئلهی اجتماعی، بلکه به یک وضعیت تحمیلشده توسط الگوریتمها تبدیل میشود.
سرعت و مقیاس پذیرش هوش مصنوعی به این معنی است که آسیب میتواند سریعتر و نامحسوستر از همیشه وارد شود - که در تصمیمات استخدام، تأیید وام، دسترسی به مراقبتهای بهداشتی و حتی سیستم عدالت کیفری مدون شده است. این سیستمها نه تنها نابرابریهای موجود را منعکس میکنند، بلکه آنها را تقویت، عادیسازی و دیدن آنها را دشوارتر میکنند، چه رسد به اینکه آنها را به چالش بکشند.
اما این آینده اجتنابناپذیر نیست. اگر اکنون اقدام کنیم - اگر تصمیم بگیریم اخلاق، شفافیت و خیر عمومی را در مرکز طراحی هوش مصنوعی قرار دهیم - این فرصت را داریم که الگوی طولانی مدتی را که در آن پیشرفت فناوری به نفع عدهای معدود و در عین حال به حاشیه راندن بسیاری است، مختل کنیم. این لحظه فرصتی نادر برای بازنویسی قوانین تعامل، دموکراتیزه کردن نوآوری و اطمینان از این است که هوش مصنوعی نه به عنوان ابزاری برای کنترل، بلکه به عنوان ابزاری برای آزادی استفاده شود.
سوال واقعی این نیست که آیا هوش مصنوعی دنیا را تغییر خواهد داد یا نه - در حال حاضر این اتفاق افتاده است. سوال واقعی این است که آیا ما شجاعت هدایت این تغییر به سمت عدالت را خواهیم داشت، یا اینکه اجازه خواهیم داد که سکون، طمع و بیتفاوتی برای ما تصمیم بگیرند. زیرا در نهایت، هوش مصنوعی آینده ما را تعیین نخواهد کرد. ما این کار را خواهیم کرد.
درباره نویسنده
الکس جردن نویسندهی InnerSelf.com است.
خلاصه مقاله
نابرابری هوش مصنوعی با افزایش کنترل شرکتهای قدرتمند بر ابزارهایی که زندگی مدرن را شکل میدهند، در حال افزایش است. بدون چارچوبهای اخلاقی هوش مصنوعی و نظارت دموکراتیک، ما در معرض خطر بدتر شدن شکاف دیجیتالی هستیم. اما با سیاستهای عمومی، آموزش و پاسخگویی، هوش مصنوعی اخلاقی میتواند به عنوان نیرویی برای برابری عمل کند. آینده به صورت کد نوشته نشده است - بلکه با انتخابهایی که امروز انجام میدهیم شکل میگیرد.
#نابرابری_هوش_هوش_مصنوعی #هوش_هوش_اخلاقی #شکاف_دیجیتالی #هوش_هوش_مصنوعی_و_جامعه #آینده_کار #هوش_هوش_مصنوعی_مسئول #عدالت_فناوری #تأثیر_اتوماسیون



