fghkutdfgd

در این مقاله

  • آیا هوش مصنوعی می‌تواند نابرابری اقتصادی را کاهش یا تقویت کند؟
  • شرکت‌ها چگونه از هوش مصنوعی برای تثبیت قدرت استفاده می‌کنند؟
  • نقش هوش مصنوعی اخلاقی در خدمات عمومی چیست؟
  • آیا دولت‌ها با تأثیر اجتماعی هوش مصنوعی همگام هستند؟
  • چه اقداماتی می‌تواند تضمین کند که هوش مصنوعی برای همه مفید است؟

نابرابری هوش مصنوعی: آیا هوش مصنوعی اخلاقی ما را نجات خواهد داد یا ما را بیشتر از هم جدا خواهد کرد؟

نوشته‌ی الکس جردن، InnerSelf.com

هوش مصنوعی با وعده‌ای آمد: سیستم‌های هوشمندتر، تصمیم‌گیری سریع‌تر، زندگی بهتر. اما مانند هر فناوری تحول‌آفرین، بهایی هم داشت. اتوماسیون، مشاغل را سریع‌تر از آنکه جامعه بتواند جایگزین کند، از بین برده است. تصمیم‌گیری الگوریتمی، تعصبات موجود را تقویت کرده است. و دسترسی به ابزارهای هوش مصنوعی - چه برای آموزش، مراقبت‌های بهداشتی یا امور مالی - به طور نابرابر در نژاد، طبقه و جغرافیا توزیع شده است.

طنز ماجرا اینجاست: هر چه بیشتر تصمیم‌گیری را دیجیتالی کنیم، بیشتر در معرض خطر جاسازی تعصبات قدیمی در سیستم‌های جدید قرار می‌گیریم. الگوریتم‌های استخدامی را در نظر بگیرید که متقاضیان را غربالگری می‌کنند. اگر داده‌های آموزشی منعکس‌کننده دهه‌ها تبعیض باشند، الگوریتم فقط گذشته را تکرار نمی‌کند - آن را بهینه می‌کند. هوش مصنوعی دیگر یک راه حل نیست، بلکه به آینه‌ای سریع‌تر و سردتر از نابرابری تبدیل می‌شود.

دنبال پول، دنبال قدرت

از خودتان بپرسید: چه کسی مالک الگوریتم‌ها است؟ چه کسی از افزایش بهره‌وری هوش مصنوعی سود می‌برد؟ پاسخ، عموم مردم نیستند. تعداد انگشت‌شماری از شرکت‌ها بر این حوزه تسلط دارند - از داده‌ها کسب درآمد می‌کنند، کنترل را متمرکز می‌کنند و قدرت را به شیوه‌هایی شبیه به بارون‌های نفت و غول‌های راه‌آهن عصر طلایی، بازتعریف می‌کنند. با این تفاوت که این بار، منبع فولاد یا نفت خام نیست - بلکه اطلاعات است. و این اطلاعات از شما، من و هر کسی که می‌شناسیم برداشت می‌شود.

تمرکز ثروت فقط یک مسئله اقتصادی نیست - بلکه یک مسئله فناوری است. با افزایش مقیاس هوش مصنوعی، سود صاحبان پلتفرم‌ها نیز افزایش می‌یابد. و با سرمایه‌گذاری شرکت‌هایی مانند گوگل، متا، مایکروسافت و آمازون در مدل‌های هوش مصنوعی که به طور فزاینده‌ای پیچیده می‌شوند، کسب‌وکارهای کوچک و مؤسسات دولتی عقب می‌مانند و برای رقابت یا حتی ادامه رقابت تلاش می‌کنند.

این نوآوری نیست - این حصر است. ما شاهد ظهور یک فئودالیسم جدید هستیم، فئودالیسمی که در آن دسترسی به ابزارها و داده‌ها تعیین می‌کند چه کسی از نردبان بالا می‌رود و چه کسی در زیر آن گیر می‌کند.


گرافیک اشتراک‌گذاری از درون


وقتی هوش مصنوعی به یک مانع تبدیل می‌شود، نه یک پل

حالا تصور کنید که شما دانش‌آموزی در یک منطقه روستایی هستید که سیستم آموزشی محلی توانایی خرید جدیدترین ابزارهای آموزشی مبتنی بر هوش مصنوعی را ندارد. در همین حال، یک مدرسه خصوصی ممتاز در یک مرکز شهری از تجزیه و تحلیل‌های بلادرنگ برای شخصی‌سازی برنامه درسی هر دانش‌آموز استفاده می‌کند. یک کودک یک معلم خصوصی شخصی‌سازی‌شده در فضای ابری دریافت می‌کند. کودک دیگر عقب می‌ماند. اگر این را در مراقبت‌های بهداشتی، مسکن و عدالت کیفری ضرب کنید، هوش مصنوعی دیگر یک راه حل نیست و به کلاهی برای امتیازگیری تبدیل می‌شود.

این یک فرضیه نیست. نشان داده شده است که الگوریتم‌های پیش‌بینی‌کننده‌ی پلیس، محله‌های اقلیت‌ها را به طور نامتناسبی هدف قرار می‌دهند. سیستم‌های مراقبت‌های بهداشتی که از ارزیابی ریسک هوش مصنوعی استفاده می‌کنند، بیماران سیاه‌پوست را کمتر از حد تشخیص داده‌اند. ارزیابی‌های خودکار وام، اعتبار را بر اساس پروکسی‌های کد پستی که تعصب نژادی را پنهان می‌کنند، رد می‌کنند. در این سیستم‌ها، هوش مصنوعی بی‌طرف نیست - بلکه بازتابی از جهانی است که ما ساخته‌ایم، حتی تا نابرابری‌های آن.

هوش مصنوعی اخلاقی: چیزی بیش از یک شعار تبلیغاتی

هوش مصنوعی اخلاقی به معنای کدگذاری مهربانی در ماشین‌ها نیست. بلکه به معنای گنجاندن پاسخگویی، شفافیت و عدالت در کل سیستم است - از داده‌هایی که استفاده می‌کنیم گرفته تا سوالاتی که می‌پرسیم و نتایجی که اندازه‌گیری می‌کنیم. و در حال حاضر، این اتفاق به اندازه کافی نمی‌افتد.

بسیاری از توسعه‌دهندگان هوش مصنوعی هنوز در خلأهای اخلاقی کار می‌کنند. دولت‌ها برای تنظیم ابزارهایی که به سختی آنها را درک می‌کنند، تقلا می‌کنند. و تأثیرگذارترین تصمیمات هوش مصنوعی پشت درهای بسته و به دور از نظارت عمومی یا بحث‌های دموکراتیک گرفته می‌شود. این فقط یک شکست سیاسی نیست - بلکه یک شکست اخلاقی است.

اگر می‌خواهیم هوش مصنوعی در خدمت اکثریت باشد، نه فقط عده‌ای معدود، به چارچوب‌های اخلاقیِ قاطع نیاز داریم. این به معنای حسابرسی‌های مستقل، نظارت عمومی و قوانینی است که با آسیب الگوریتمی با همان جدیتِ آسیب فیزیکی برخورد کنند. همچنین به معنای اعطای جایگاهی به جوامع حاشیه‌نشین است - نه فقط به عنوان نقاط داده، بلکه به عنوان تصمیم‌گیرندگانی که نحوه استفاده از هوش مصنوعی را شکل می‌دهند.

سیاست، مشارکت و زیرساخت‌های عمومی

هیچ راه حل تکنولوژیکی برای نابرابری وجود ندارد. اما راه حل‌های سیاسی وجود دارد. دولت‌ها باید از برون‌سپاری تفکر خود به سیلیکون ولی دست بردارند و شروع به ساخت زیرساخت‌های عمومی هوش مصنوعی کنند که عدالت را محور قرار دهد. الگوریتم‌های متن‌باز برای استفاده عمومی را تصور کنید که با ورودی‌های دموکراتیک طراحی شده‌اند. یک فضای مشترک ملی داده‌ها را تصور کنید، جایی که ارزش داده‌های شخصی به افرادی که از آنها آمده است، بازگردانده می‌شود. اینها رویاهای واهی نیستند. اینها انتخاب‌های سیاسی هستند.

همانطور که جاده‌ها و کتابخانه‌های عمومی ساختیم، می‌توانیم زیرساخت‌های دیجیتالی بسازیم که برای همه کار کند. اما برای انجام این کار، باید منطق انحصارهای فناوری خصوصی‌شده را به چالش بکشیم و مدل جدیدی را بپذیریم: مدلی که هوش مصنوعی را نه به عنوان یک محصول، بلکه به عنوان یک ابزار عمومی می‌بیند.

این امر همچنین مستلزم سرمایه‌گذاری عظیم در آموزش - به‌ویژه در جوامع محروم - است تا آینده‌ای که در آن سواد هوش مصنوعی وجود دارد، تنها متعلق به افراد ممتاز نباشد. آینده‌ای عادلانه به این بستگی دارد که چه کسی سیستم‌هایی را که اکنون زندگی ما را کنترل می‌کنند، درک و شکل دهد.

دوراهی: قدم بعدی چیست؟

ما در آستانه‌ی یک تحول تکنولوژیکی هستیم که می‌تواند این قرن را تعریف کند - و خطرات آن نمی‌تواند بیش از این باشد. اگر همچنان در این برهه از زمان خوابگردی کنیم و اجازه دهیم سیستم‌های هوش مصنوعی صرفاً در خدمت سود شرکت‌ها ساخته و مستقر شوند، در معرض خطر گرفتار شدن در آینده‌ای قرار می‌گیریم که در آن نابرابری نه تنها به یک مسئله‌ی اجتماعی، بلکه به یک وضعیت تحمیل‌شده توسط الگوریتم‌ها تبدیل می‌شود.

سرعت و مقیاس پذیرش هوش مصنوعی به این معنی است که آسیب می‌تواند سریع‌تر و نامحسوس‌تر از همیشه وارد شود - که در تصمیمات استخدام، تأیید وام، دسترسی به مراقبت‌های بهداشتی و حتی سیستم عدالت کیفری مدون شده است. این سیستم‌ها نه تنها نابرابری‌های موجود را منعکس می‌کنند، بلکه آنها را تقویت، عادی‌سازی و دیدن آنها را دشوارتر می‌کنند، چه رسد به اینکه آنها را به چالش بکشند.

اما این آینده اجتناب‌ناپذیر نیست. اگر اکنون اقدام کنیم - اگر تصمیم بگیریم اخلاق، شفافیت و خیر عمومی را در مرکز طراحی هوش مصنوعی قرار دهیم - این فرصت را داریم که الگوی طولانی مدتی را که در آن پیشرفت فناوری به نفع عده‌ای معدود و در عین حال به حاشیه راندن بسیاری است، مختل کنیم. این لحظه فرصتی نادر برای بازنویسی قوانین تعامل، دموکراتیزه کردن نوآوری و اطمینان از این است که هوش مصنوعی نه به عنوان ابزاری برای کنترل، بلکه به عنوان ابزاری برای آزادی استفاده شود.

سوال واقعی این نیست که آیا هوش مصنوعی دنیا را تغییر خواهد داد یا نه - در حال حاضر این اتفاق افتاده است. سوال واقعی این است که آیا ما شجاعت هدایت این تغییر به سمت عدالت را خواهیم داشت، یا اینکه اجازه خواهیم داد که سکون، طمع و بی‌تفاوتی برای ما تصمیم بگیرند. زیرا در نهایت، هوش مصنوعی آینده ما را تعیین نخواهد کرد. ما این کار را خواهیم کرد.

درباره نویسنده

الکس جردن نویسنده‌ی InnerSelf.com است.

خلاصه مقاله

نابرابری هوش مصنوعی با افزایش کنترل شرکت‌های قدرتمند بر ابزارهایی که زندگی مدرن را شکل می‌دهند، در حال افزایش است. بدون چارچوب‌های اخلاقی هوش مصنوعی و نظارت دموکراتیک، ما در معرض خطر بدتر شدن شکاف دیجیتالی هستیم. اما با سیاست‌های عمومی، آموزش و پاسخگویی، هوش مصنوعی اخلاقی می‌تواند به عنوان نیرویی برای برابری عمل کند. آینده به صورت کد نوشته نشده است - بلکه با انتخاب‌هایی که امروز انجام می‌دهیم شکل می‌گیرد.

#نابرابری_هوش_هوش_مصنوعی #هوش_هوش_اخلاقی #شکاف_دیجیتالی #هوش_هوش_مصنوعی_و_جامعه #آینده_کار #هوش_هوش_مصنوعی_مسئول #عدالت_فناوری #تأثیر_اتوماسیون