ما یک شبه از خواب بیدار نشدیم و افسار را به دست ماشین‌ها ندادیم. این اتفاق بی‌سروصدا و با یک حرکت در هر زمان رخ داد. ایمیل شما خودش مرتب شد. تقویم شما یاد گرفت که زمان جلسات را پیشنهاد دهد. بانک شما قبل از اینکه متوجه هزینه شوید، کلاهبرداری را گزارش کرده بود. این‌ها مانند ارتقاءهای مفید به نظر می‌رسیدند، نه انتقال قدرت. اما چیزی در طول مسیر تغییر کرد و اکثر ما آن را از دست دادیم.

در این مقاله

  • درک اینکه عامل‌های هوش مصنوعی واقعاً چه هستند و چه تفاوتی با نرم‌افزارهای معمولی دارند
  • تفاوت اساسی بین کمک و تفویض اختیار در سیستم‌های خودکار
  • چرا بهینه‌سازی بدون خرد، مشکلات قابل پیش‌بینی ایجاد می‌کند؟
  • نمونه‌های واقعی از استفاده اخلاقی و سوءاستفاده‌های نوظهور
  • گام‌های عملی برای حفظ آژانس شما در دنیای خودکار

سیستم‌هایی که اکنون برای ما دسته‌بندی، پیشنهاد و گاهی تصمیم‌گیری می‌کنند، در ابتدا به عنوان دستیاران ساده‌ای عمل می‌کردند. فیلترهای اسپم ما را از شر انبوهی از هرزنامه‌ها نجات دادند. موتورهای پیشنهاددهنده ما را به سمت کتاب‌هایی که ممکن است از آنها لذت ببریم، راهنمایی کردند. دستیاران برنامه‌ریزی، زمان‌هایی را پیدا کردند که برای همه مناسب باشد. هر نوآوری یک مشکل واقعی را حل کرد. هر کدام زندگی را کمی آسان‌تر کرد. و هر کدام به ما آموختند که انتظار داشته باشیم فناوری، قضاوت‌های پیچیده‌تر را از طرف ما مدیریت کند.

ما اکنون در نقطه‌ای هستیم که سیستم‌ها فقط به ما در تصمیم‌گیری کمک نمی‌کنند - آنها تصمیم می‌گیرند و عمل می‌کنند. آنها منتظر تأیید نمی‌مانند. آنها همیشه خودشان را توضیح نمی‌دهند. و آنها در مقیاس‌ها و سرعت‌هایی عمل می‌کنند که نظارت انسانی را عجیب و غریب، حتی غیرممکن جلوه می‌دهد. این اتفاق نیفتاد زیرا ما یک انتخاب بزرگ برای واگذاری کنترل انجام دادیم. این اتفاق افتاد زیرا ما ده هزار انتخاب کوچک انجام دادیم تا راحتی را بدون زیر سوال بردن هزینه‌ها بپذیریم.

کاری که این سیستم‌ها واقعاً انجام می‌دهند

یک عامل هوش مصنوعی با نرم‌افزاری که با آن بزرگ شده‌اید متفاوت است. برنامه‌های سنتی از دستورالعمل‌ها پیروی می‌کنند. آن‌ها منتظر ورودی می‌مانند، آن را طبق قوانین ثابت پردازش می‌کنند و متوقف می‌شوند. یک ماشین حساب بعد از اینکه شما از آن دور می‌شوید، به محاسبه ادامه نمی‌دهد. یک پردازشگر متن خودش شروع به نوشتن نمی‌کند. این ابزارها تا زمانی که فعال نشوند، بی‌اثر هستند. آن‌ها خدمتکار هستند، نه بازیگر.

عامل‌های هوش مصنوعی به طور متفاوتی عمل می‌کنند. آن‌ها محیط خود را به طور مداوم مشاهده می‌کنند. آن‌ها بر اساس آنچه درک می‌کنند تصمیم می‌گیرند. آن‌ها برای رسیدن به اهداف اقداماتی انجام می‌دهند. و این چرخه را بدون هدایت مداوم انسان تکرار می‌کنند. ویژگی تعیین‌کننده، هوش به معنای انسانی آن نیست - بلکه ابتکار عمل است. یک عامل فقط وقتی فراخوانده می‌شود پاسخ نمی‌دهد. بلکه عمل می‌کند.


گرافیک اشتراک‌گذاری از درون


به یک ترموستات فکر کنید. نوع قدیمی آن مستلزم این بود که شما آن را به صورت دستی هنگام تغییر دما تنظیم کنید. یک ترموستات هوشمند الگوها را مشاهده می‌کند، ترجیحات شما را یاد می‌گیرد، برنامه شما را پیش‌بینی می‌کند و گرمایش و سرمایش را به تنهایی تنظیم می‌کند. این ترموستات در حال تصمیم‌گیری است. تصمیمات کوچک، اما به هر حال تصمیم‌گیری. اکنون آن را به سیستم‌هایی که سهام را معامله می‌کنند، درخواست‌های شغلی را فیلتر می‌کنند، محتوا را مدیریت می‌کنند و زنجیره‌های تأمین را مدیریت می‌کنند، گسترش دهید. اصل کار همان است. اما عواقب آن متفاوت است.

تفاوت بین کمک کردن و جایگزین کردن

یک نکته اخلاقی در اتوماسیون وجود دارد که اکثر بحث‌ها از آن غافل می‌شوند. این تفاوت بین استفاده از هوش مصنوعی برای بهبود قضاوت شما و اجازه دادن به هوش مصنوعی برای جایگزینی قضاوت شماست. یکی شما را مسئول نگه می‌دارد. دیگری شما را از مسئولیت رها می‌کند.

وقتی پزشکی از یک سیستم هوش مصنوعی برای تجزیه و تحلیل تصاویر پزشکی استفاده می‌کند، اما همچنان نتایج را بررسی کرده و تشخیص می‌دهد، این یک تقویت است. این ابزار الگوهایی را که انسان ممکن است از دست بدهد، آشکار می‌کند. انسان این یافته‌ها را با سابقه بیمار، علائم و تجربه بالینی ادغام می‌کند. مسئولیت همچنان مشخص است. اما وقتی یک شرکت بیمه از الگوریتمی برای تأیید یا رد ادعاها استفاده می‌کند و بررسی‌کنندگان انسانی به مهرهای لاستیکی تبدیل می‌شوند که به ندرت توصیه‌های سیستم را لغو می‌کنند، چیز مهمی تغییر کرده است. ظاهر نظارت انسانی، آنچه را که در واقع اقتدار الگوریتمی است، می‌پوشاند.

واگذاری مسئولیت، حس کارآمدی می‌دهد. حس خنثی بودن می‌دهد. حس پیشرفت می‌دهد. گذشته از همه اینها، چرا انسان‌ها باید وقت خود را صرف تصمیماتی کنند که ماشین‌ها می‌توانند سریع‌تر و مداوم‌تر انجام دهند؟ پاسخ این است که ثبات به معنای درستی نیست و کارایی به معنای عدالت نیست. ماشین‌ها در این بازی بی‌تفاوت نیستند. آنها به خاطر اشتباهات بی‌خواب نمی‌شوند. وقتی قضاوت را به سیستم‌هایی که فاقد قضاوت هستند واگذار می‌کنیم، یک خلاء پاسخگویی ایجاد می‌کنیم. و آن خلاء با بهانه‌ها پر می‌شود. الگوریتم این کار را کرد. سیستم آن را علامت‌گذاری کرد. این عبارات به سپرهایی در برابر مسئولیت تبدیل شده‌اند.

چرا بهینه‌سازی بی‌وقفه ما را شکست می‌دهد؟

عوامل هوش مصنوعی بهینه‌ساز هستند. به آنها اهدافی داده می‌شود و آنها بی‌وقفه آن اهداف را دنبال می‌کنند، اغلب بسیار مؤثرتر از آنچه انسان‌ها می‌توانند. این به نظر یک مزیت می‌رسد تا زمانی که به آنچه در واقع بهینه می‌شود نگاه کنید. الگوریتم‌های رسانه‌های اجتماعی برای تعامل بهینه‌سازی می‌شوند، که در عمل به معنای تقویت خشم و جنجال است زیرا این موارد باعث می‌شوند افراد در حال اسکرول کردن باشند. الگوریتم‌های استخدام، الگوهای استخدام‌های موفق گذشته را بهینه‌سازی می‌کنند، به این معنی که آنها سوگیری‌های تاریخی را تکرار می‌کنند. الگوریتم‌های قیمت‌گذاری، برای درآمد بهینه‌سازی می‌شوند، که می‌تواند به این معنی باشد که افراد مختلف بر اساس میزان تحمل سیستم، قیمت‌های متفاوتی را برای یک محصول پرداخت می‌کنند.

مشکل این نیست که این سیستم‌ها خراب هستند. مشکل این است که آنها دقیقاً همانطور که طراحی شده‌اند کار می‌کنند. آنها کاری را که به آنها گفته شده انجام می‌دهند. اما اهدافی که به آنها داده شده ناقص است. آنها حقیقت، انصاف، عزت یا رفاه بلندمدت را در نظر نمی‌گیرند زیرا اندازه‌گیری این موارد دشوار است و رمزگذاری آنها حتی دشوارتر است. بنابراین سیستم‌ها آنچه را که می‌توان اندازه‌گیری کرد - کلیک‌ها، تبدیل‌ها، کارایی، سود - به حداکثر می‌رسانند و چیزهایی که بیشترین اهمیت را دارند به عنوان عوامل خارجی در نظر گرفته می‌شوند.

قرار است انسان‌ها کسانی باشند که زمینه و ارزش‌ها را می‌سنجند. قرار است وقتی بهینه‌سازی باعث آسیب می‌شود، متوجه شویم. اما وقتی سیستم‌ها با مقیاس و سرعت عمل می‌کنند، آن قضاوت انسانی غیرعملی می‌شود. تا زمانی که متوجه شویم چیزی اشتباه است، الگوریتم ده هزار تصمیم گرفته است. آنچه می‌تواند بهینه شود، همیشه آن چیزی نیست که باید به حداکثر برسد. این حقیقتی است که ماشین‌ها نمی‌توانند درک کنند و انسان‌ها مدام فراموش می‌کنند.

چگونه از این سیستم‌ها سوءاستفاده می‌شود

بیشتر آسیب‌های ناشی از عوامل هوش مصنوعی از بدخواهی ناشی نمی‌شود. این آسیب‌ها از سیستم‌های کنترل‌نشده‌ای ناشی می‌شود که دقیقاً همان کاری را که برای آن برنامه‌ریزی شده‌اند، در مقیاس‌ها و سرعت‌هایی انجام می‌دهند که هر نقصی را بزرگنمایی می‌کند. یک انسان که غیراخلاقی عمل می‌کند، یک مشکل است. یک سیستم که به یک عامل اجازه می‌دهد طوری عمل کند که انگار هزاران نفر هستند، یک بحران است.

مقیاس بدون پاسخگویی همه جا خود را نشان می‌دهد. ربات‌هایی که مکالمات رسانه‌های اجتماعی را دستکاری می‌کنند، سیستم‌های بررسی جعلی، اسپم‌های خودکار که سریع‌تر از فیلترها سازگار می‌شوند و می‌توانند آنها را تشخیص دهند. وقتی عواقب از راه می‌رسند، دفاع همیشه یکسان است: سیستم این کار را کرده است. من فقط پارامترها را تعیین کرده‌ام. این بهانه‌ها کار می‌کنند زیرا پاسخگویی عمداً پنهان شده است.

آسیب تفویض‌شده به‌طور خاص موذیانه است، زیرا به مؤسسات اجازه می‌دهد از مسئولیت شانه خالی کنند، در حالی که همچنان قدرت را در دست دارند. یک الگوریتم درخواست وام شما را رد می‌کند. یک سیستم خودکار، پست شما را به عنوان ناقض استانداردهای جامعه علامت‌گذاری می‌کند. یک ابزار استخدام، قبل از اینکه حتی یک انسان رزومه شما را ببیند، شما را بررسی می‌کند. وقتی درخواست تجدیدنظر می‌دهید، اغلب به شما گفته می‌شود که تصمیم پابرجاست زیرا سیستم منصفانه و بی‌طرف است. اما انصاف با ثبات و پایداری یکسان نیست، و بی‌طرفی زمانی که سیستم بر اساس داده‌های مغرضانه آموزش دیده یا برای بهینه‌سازی اهداف اشتباه طراحی شده باشد، یک افسانه است.

عمیق‌ترین ریسک

خطر واقعی این نیست که ماشین‌ها کنترل امور را به دست بگیرند. خطر واقعی این است که ما دست از تلاش برای این کار برداریم. مردم با سیستم‌های اطراف خود سازگار می‌شوند. وقتی تصمیمات خودکار و اجتناب‌ناپذیر به نظر برسند، پرسشگری رنگ می‌بازد. وقتی نتایج بدون دخالت مشهود انسان حاصل می‌شوند، به نظر می‌رسد مسئولیت از بین می‌رود. ما خودمان را آموزش می‌دهیم که آنچه به ما داده می‌شود را بپذیریم، به جای اینکه آنچه را که درست است مطالبه کنیم.

این الگو آشناست. بوروکراسی به مردم می‌آموزد که قوانین ثابت هستند و استثنا وجود ندارد. انحصار پلتفرم‌ها به مردم می‌آموزد که شرایط خدمات غیرقابل مذاکره است. اتوماسیون مالی به مردم می‌آموزد که بازارها فراتر از نفوذ انسان هستند. هر سیستم این حس را که انتخاب فردی مهم است، کم‌کم از بین می‌برد. و عوامل هوش مصنوعی، به دلیل اینکه سریع‌تر و مبهم‌تر از هر چیز دیگری قبل از خود عمل می‌کنند، این فرآیند را تسریع می‌کنند.

اختیار یک حالت پیش‌فرض نیست. چیزی است که یا آن را تمرین می‌کنید یا از دست می‌دهید. هر چه بیشتر به سیستم‌ها تسلیم شوید، کمتر قادر به اعمال قضاوت خود خواهید بود. هر چه بیشتر نتایج الگوریتمی را بدون چون و چرا بپذیرید، تصور اینکه اوضاع می‌توانست طور دیگری باشد، دشوارتر می‌شود. این بزرگترین خطر است. نه کنترل توسط ماشین‌ها، بلکه عادت کردن به تصمیم‌گیری نکردن.

کاری که واقعاً می‌توانید انجام دهید

مقاومت در برابر فرسایش عاملیت نیازی به اقدامات بزرگ ندارد. بلکه به تمرین روزمره نیاز دارد. با زیر سوال بردن اتوماسیون نامرئی شروع کنید. وقتی سیستمی تصمیمی می‌گیرد که بر شما تأثیر می‌گذارد، بپرسید که چگونه کار می‌کند و چه کسی مسئول است. قبل از اعتماد به نتایج خودکار، بپرسید که آیا نتیجه منطقی است و آیا سیستم ممکن است چیز مهمی را از قلم انداخته باشد. سیستم‌هایی را که خودشان را توضیح می‌دهند، به جعبه‌های سیاهی که نیاز به اعتماد دارند، ترجیح دهید.

در جایی که مهم است، مشارکت کنید. تصمیمات را صرفاً به این دلیل که می‌توانید، به دیگران واگذار نکنید. اگر ابزاری پیشنهاد می‌دهد که ایمیل‌های شما را بنویسد، کار شما را ویرایش کند یا از طرف شما توصیه‌هایی ارائه دهد، در نظر بگیرید که آیا این راحتی ارزش فاصله‌ای را که بین شما و وظیفه ایجاد می‌کند، دارد یا خیر. و وقتی با سیستم‌هایی مواجه می‌شوید که بدون پاسخگویی عمل می‌کنند، درخواست بهتری داشته باشید. تصمیمات الگوریتمی را پس بزنید. درخواست بررسی انسانی کنید. از پذیرش اینکه پاسخ سیستم صرفاً به دلیل خودکار بودن، نهایی است، خودداری کنید.

اختیار یک عمل است، نه یک تنظیم پیش‌فرض. هر بار که یک نتیجه‌ی خودکار را زیر سوال می‌برید، در حال اعمال ظرفیتی هستید که به دلیل عدم استفاده تحلیل می‌رود. هر بار که بر پاسخگویی انسانی اصرار دارید، در حال مقابله با عادی‌سازی اقتدار الگوریتمی هستید. این اقدامات کوچکِ انتخاب آگاهانه اهمیت دارند زیرا محیطی را که دیگران در آن حرکت می‌کنند، شکل می‌دهند.

ابزارهایی که ما شکل می‌دهیم یا نیروهایی که ما را شکل می‌دهند

عامل‌های هوش مصنوعی ابزارهایی هستند که ما طراحی می‌کنیم. این اولین حقیقت است. اما پس از استقرار، رفتار و قدرت را تغییر شکل می‌دهند. این دومین حقیقت است. هر دو واقعی هستند و تظاهر به خلاف آن خطرناک است. سوال این نیست که آیا این سیستم‌ها به فعالیت خود ادامه خواهند داد یا خیر. آنها ادامه خواهند داد. سوال این است که آیا انسان‌ها در قبال آنچه به نام آنها عمل می‌کند، پاسخگو خواهند ماند یا خیر.

آینده همین الان از طریق یک میلیون تصمیم کوچک در مورد اینکه کجا خودکارسازی شود و کجا بر قضاوت انسانی اصرار شود، در حال ساخته شدن است. این تصمیمات فقط فنی نیستند. آنها اخلاقی هستند. آنها در مورد این هستند که ما مایل به زندگی در چه نوع دنیایی هستیم و چه نوع نهادی را حاضر به حفظ آن هستیم. مسیر پیش‌فرض مشخص است. اتوماسیون بیشتر، نظارت کمتر، راحتی بیشتر، مسئولیت کمتر. این مسیر آسان است زیرا سودآور و کارآمد است و اجتناب‌ناپذیر به نظر می‌رسد.

اما اجتناب‌ناپذیری داستانی است که ما برای جلوگیری از ناراحتی انتخاب به خودمان می‌گوییم. واقعیت این است که هر استقرار یک عامل هوش مصنوعی یک انتخاب است. هر پذیرش اقتدار الگوریتمی یک انتخاب است. هر بار که شانه بالا می‌اندازیم و می‌گوییم سیستم تصمیم گرفته است، یک انتخاب است. و هر انتخابی آنچه را که در ادامه می‌آید شکل می‌دهد. بنابراین سوال این نیست که هوش مصنوعی چه خواهد کرد. سوال این است که شما هنوز مایلید خودتان چه تصمیماتی بگیرید. پاسخ به این سوال بیش از هر الگوریتمی اهمیت دارد.

درباره نویسنده

الکس جردن نویسنده‌ی InnerSelf.com است.

کتابهای توصیه شده

مشکل هم ترازی: یادگیری ماشین و ارزش های انسانی

کاوشی عمیق و محققانه در مورد چگونگی یادگیری ارزش‌ها توسط سیستم‌های هوش مصنوعی و اینکه چرا همسو کردن آنها با شکوفایی انسان بسیار پیچیده‌تر از آن چیزی است که اکثر مردم تصور می‌کنند.

خرید در آمازون

سلاح‌های تخریب ریاضی: چگونه کلان‌داده نابرابری را افزایش می‌دهد و دموکراسی را تهدید می‌کند

بررسی قابل فهمی از چگونگی تثبیت نابرابری توسط الگوریتم‌ها و عملکرد بدون پاسخگویی، نوشته‌ی ریاضیدانی که درون سیستم‌هایی که او نقد می‌کند، کار کرده است.

خرید در آمازون

خودکارسازی نابرابری: چگونه ابزارهای پیشرفته، فقرا را شناسایی، کنترل و مجازات می‌کنند

تحقیقی قدرتمند در مورد چگونگی هدف قرار دادن و مجازات فقرا توسط سیستم‌های خودکار، که هزینه انسانی تصمیم‌گیری الگوریتمی در خدمات عمومی را آشکار می‌کند.

خرید در آمازون

خلاصه مقاله

عامل‌های هوش مصنوعی نشان‌دهنده‌ی تغییر از ابزارهایی هستند که به قضاوت انسان کمک می‌کنند، به سیستم‌هایی که جایگزین آن می‌شوند و با ابتکار و استقلال عمل می‌کنند و سرعتی دارند که نظارت را دشوار می‌کند. خطر واقعی هوش ماشینی نیست، بلکه فرسایش تدریجی عامل انسانی است، زیرا ما با تصمیم‌گیری خودکار بدون پاسخگویی سازگار می‌شویم. استفاده‌ی اخلاقی مستلزم مسئول نگه داشتن انسان‌ها در قبال تصمیمات مهم، حفظ شفافیت و شناخت این است که بهینه‌سازی بدون خرد، آسیب‌های قابل پیش‌بینی ایجاد می‌کند.

#عاملان_هوش_مصنوعی #اتوماسیون #آژانس_انسانی #پاسخگویی_الگوریتمی #هوش_مصنوعی_اخلاقی #خودمختاری_دیجیتال #فناوری_و_اخلاق