
ما یک شبه از خواب بیدار نشدیم و افسار را به دست ماشینها ندادیم. این اتفاق بیسروصدا و با یک حرکت در هر زمان رخ داد. ایمیل شما خودش مرتب شد. تقویم شما یاد گرفت که زمان جلسات را پیشنهاد دهد. بانک شما قبل از اینکه متوجه هزینه شوید، کلاهبرداری را گزارش کرده بود. اینها مانند ارتقاءهای مفید به نظر میرسیدند، نه انتقال قدرت. اما چیزی در طول مسیر تغییر کرد و اکثر ما آن را از دست دادیم.
در این مقاله
- درک اینکه عاملهای هوش مصنوعی واقعاً چه هستند و چه تفاوتی با نرمافزارهای معمولی دارند
- تفاوت اساسی بین کمک و تفویض اختیار در سیستمهای خودکار
- چرا بهینهسازی بدون خرد، مشکلات قابل پیشبینی ایجاد میکند؟
- نمونههای واقعی از استفاده اخلاقی و سوءاستفادههای نوظهور
- گامهای عملی برای حفظ آژانس شما در دنیای خودکار
سیستمهایی که اکنون برای ما دستهبندی، پیشنهاد و گاهی تصمیمگیری میکنند، در ابتدا به عنوان دستیاران سادهای عمل میکردند. فیلترهای اسپم ما را از شر انبوهی از هرزنامهها نجات دادند. موتورهای پیشنهاددهنده ما را به سمت کتابهایی که ممکن است از آنها لذت ببریم، راهنمایی کردند. دستیاران برنامهریزی، زمانهایی را پیدا کردند که برای همه مناسب باشد. هر نوآوری یک مشکل واقعی را حل کرد. هر کدام زندگی را کمی آسانتر کرد. و هر کدام به ما آموختند که انتظار داشته باشیم فناوری، قضاوتهای پیچیدهتر را از طرف ما مدیریت کند.
ما اکنون در نقطهای هستیم که سیستمها فقط به ما در تصمیمگیری کمک نمیکنند - آنها تصمیم میگیرند و عمل میکنند. آنها منتظر تأیید نمیمانند. آنها همیشه خودشان را توضیح نمیدهند. و آنها در مقیاسها و سرعتهایی عمل میکنند که نظارت انسانی را عجیب و غریب، حتی غیرممکن جلوه میدهد. این اتفاق نیفتاد زیرا ما یک انتخاب بزرگ برای واگذاری کنترل انجام دادیم. این اتفاق افتاد زیرا ما ده هزار انتخاب کوچک انجام دادیم تا راحتی را بدون زیر سوال بردن هزینهها بپذیریم.
کاری که این سیستمها واقعاً انجام میدهند
یک عامل هوش مصنوعی با نرمافزاری که با آن بزرگ شدهاید متفاوت است. برنامههای سنتی از دستورالعملها پیروی میکنند. آنها منتظر ورودی میمانند، آن را طبق قوانین ثابت پردازش میکنند و متوقف میشوند. یک ماشین حساب بعد از اینکه شما از آن دور میشوید، به محاسبه ادامه نمیدهد. یک پردازشگر متن خودش شروع به نوشتن نمیکند. این ابزارها تا زمانی که فعال نشوند، بیاثر هستند. آنها خدمتکار هستند، نه بازیگر.
عاملهای هوش مصنوعی به طور متفاوتی عمل میکنند. آنها محیط خود را به طور مداوم مشاهده میکنند. آنها بر اساس آنچه درک میکنند تصمیم میگیرند. آنها برای رسیدن به اهداف اقداماتی انجام میدهند. و این چرخه را بدون هدایت مداوم انسان تکرار میکنند. ویژگی تعیینکننده، هوش به معنای انسانی آن نیست - بلکه ابتکار عمل است. یک عامل فقط وقتی فراخوانده میشود پاسخ نمیدهد. بلکه عمل میکند.
به یک ترموستات فکر کنید. نوع قدیمی آن مستلزم این بود که شما آن را به صورت دستی هنگام تغییر دما تنظیم کنید. یک ترموستات هوشمند الگوها را مشاهده میکند، ترجیحات شما را یاد میگیرد، برنامه شما را پیشبینی میکند و گرمایش و سرمایش را به تنهایی تنظیم میکند. این ترموستات در حال تصمیمگیری است. تصمیمات کوچک، اما به هر حال تصمیمگیری. اکنون آن را به سیستمهایی که سهام را معامله میکنند، درخواستهای شغلی را فیلتر میکنند، محتوا را مدیریت میکنند و زنجیرههای تأمین را مدیریت میکنند، گسترش دهید. اصل کار همان است. اما عواقب آن متفاوت است.
تفاوت بین کمک کردن و جایگزین کردن
یک نکته اخلاقی در اتوماسیون وجود دارد که اکثر بحثها از آن غافل میشوند. این تفاوت بین استفاده از هوش مصنوعی برای بهبود قضاوت شما و اجازه دادن به هوش مصنوعی برای جایگزینی قضاوت شماست. یکی شما را مسئول نگه میدارد. دیگری شما را از مسئولیت رها میکند.
وقتی پزشکی از یک سیستم هوش مصنوعی برای تجزیه و تحلیل تصاویر پزشکی استفاده میکند، اما همچنان نتایج را بررسی کرده و تشخیص میدهد، این یک تقویت است. این ابزار الگوهایی را که انسان ممکن است از دست بدهد، آشکار میکند. انسان این یافتهها را با سابقه بیمار، علائم و تجربه بالینی ادغام میکند. مسئولیت همچنان مشخص است. اما وقتی یک شرکت بیمه از الگوریتمی برای تأیید یا رد ادعاها استفاده میکند و بررسیکنندگان انسانی به مهرهای لاستیکی تبدیل میشوند که به ندرت توصیههای سیستم را لغو میکنند، چیز مهمی تغییر کرده است. ظاهر نظارت انسانی، آنچه را که در واقع اقتدار الگوریتمی است، میپوشاند.
واگذاری مسئولیت، حس کارآمدی میدهد. حس خنثی بودن میدهد. حس پیشرفت میدهد. گذشته از همه اینها، چرا انسانها باید وقت خود را صرف تصمیماتی کنند که ماشینها میتوانند سریعتر و مداومتر انجام دهند؟ پاسخ این است که ثبات به معنای درستی نیست و کارایی به معنای عدالت نیست. ماشینها در این بازی بیتفاوت نیستند. آنها به خاطر اشتباهات بیخواب نمیشوند. وقتی قضاوت را به سیستمهایی که فاقد قضاوت هستند واگذار میکنیم، یک خلاء پاسخگویی ایجاد میکنیم. و آن خلاء با بهانهها پر میشود. الگوریتم این کار را کرد. سیستم آن را علامتگذاری کرد. این عبارات به سپرهایی در برابر مسئولیت تبدیل شدهاند.
چرا بهینهسازی بیوقفه ما را شکست میدهد؟
عوامل هوش مصنوعی بهینهساز هستند. به آنها اهدافی داده میشود و آنها بیوقفه آن اهداف را دنبال میکنند، اغلب بسیار مؤثرتر از آنچه انسانها میتوانند. این به نظر یک مزیت میرسد تا زمانی که به آنچه در واقع بهینه میشود نگاه کنید. الگوریتمهای رسانههای اجتماعی برای تعامل بهینهسازی میشوند، که در عمل به معنای تقویت خشم و جنجال است زیرا این موارد باعث میشوند افراد در حال اسکرول کردن باشند. الگوریتمهای استخدام، الگوهای استخدامهای موفق گذشته را بهینهسازی میکنند، به این معنی که آنها سوگیریهای تاریخی را تکرار میکنند. الگوریتمهای قیمتگذاری، برای درآمد بهینهسازی میشوند، که میتواند به این معنی باشد که افراد مختلف بر اساس میزان تحمل سیستم، قیمتهای متفاوتی را برای یک محصول پرداخت میکنند.
مشکل این نیست که این سیستمها خراب هستند. مشکل این است که آنها دقیقاً همانطور که طراحی شدهاند کار میکنند. آنها کاری را که به آنها گفته شده انجام میدهند. اما اهدافی که به آنها داده شده ناقص است. آنها حقیقت، انصاف، عزت یا رفاه بلندمدت را در نظر نمیگیرند زیرا اندازهگیری این موارد دشوار است و رمزگذاری آنها حتی دشوارتر است. بنابراین سیستمها آنچه را که میتوان اندازهگیری کرد - کلیکها، تبدیلها، کارایی، سود - به حداکثر میرسانند و چیزهایی که بیشترین اهمیت را دارند به عنوان عوامل خارجی در نظر گرفته میشوند.
قرار است انسانها کسانی باشند که زمینه و ارزشها را میسنجند. قرار است وقتی بهینهسازی باعث آسیب میشود، متوجه شویم. اما وقتی سیستمها با مقیاس و سرعت عمل میکنند، آن قضاوت انسانی غیرعملی میشود. تا زمانی که متوجه شویم چیزی اشتباه است، الگوریتم ده هزار تصمیم گرفته است. آنچه میتواند بهینه شود، همیشه آن چیزی نیست که باید به حداکثر برسد. این حقیقتی است که ماشینها نمیتوانند درک کنند و انسانها مدام فراموش میکنند.
چگونه از این سیستمها سوءاستفاده میشود
بیشتر آسیبهای ناشی از عوامل هوش مصنوعی از بدخواهی ناشی نمیشود. این آسیبها از سیستمهای کنترلنشدهای ناشی میشود که دقیقاً همان کاری را که برای آن برنامهریزی شدهاند، در مقیاسها و سرعتهایی انجام میدهند که هر نقصی را بزرگنمایی میکند. یک انسان که غیراخلاقی عمل میکند، یک مشکل است. یک سیستم که به یک عامل اجازه میدهد طوری عمل کند که انگار هزاران نفر هستند، یک بحران است.
مقیاس بدون پاسخگویی همه جا خود را نشان میدهد. رباتهایی که مکالمات رسانههای اجتماعی را دستکاری میکنند، سیستمهای بررسی جعلی، اسپمهای خودکار که سریعتر از فیلترها سازگار میشوند و میتوانند آنها را تشخیص دهند. وقتی عواقب از راه میرسند، دفاع همیشه یکسان است: سیستم این کار را کرده است. من فقط پارامترها را تعیین کردهام. این بهانهها کار میکنند زیرا پاسخگویی عمداً پنهان شده است.
آسیب تفویضشده بهطور خاص موذیانه است، زیرا به مؤسسات اجازه میدهد از مسئولیت شانه خالی کنند، در حالی که همچنان قدرت را در دست دارند. یک الگوریتم درخواست وام شما را رد میکند. یک سیستم خودکار، پست شما را به عنوان ناقض استانداردهای جامعه علامتگذاری میکند. یک ابزار استخدام، قبل از اینکه حتی یک انسان رزومه شما را ببیند، شما را بررسی میکند. وقتی درخواست تجدیدنظر میدهید، اغلب به شما گفته میشود که تصمیم پابرجاست زیرا سیستم منصفانه و بیطرف است. اما انصاف با ثبات و پایداری یکسان نیست، و بیطرفی زمانی که سیستم بر اساس دادههای مغرضانه آموزش دیده یا برای بهینهسازی اهداف اشتباه طراحی شده باشد، یک افسانه است.
عمیقترین ریسک
خطر واقعی این نیست که ماشینها کنترل امور را به دست بگیرند. خطر واقعی این است که ما دست از تلاش برای این کار برداریم. مردم با سیستمهای اطراف خود سازگار میشوند. وقتی تصمیمات خودکار و اجتنابناپذیر به نظر برسند، پرسشگری رنگ میبازد. وقتی نتایج بدون دخالت مشهود انسان حاصل میشوند، به نظر میرسد مسئولیت از بین میرود. ما خودمان را آموزش میدهیم که آنچه به ما داده میشود را بپذیریم، به جای اینکه آنچه را که درست است مطالبه کنیم.
این الگو آشناست. بوروکراسی به مردم میآموزد که قوانین ثابت هستند و استثنا وجود ندارد. انحصار پلتفرمها به مردم میآموزد که شرایط خدمات غیرقابل مذاکره است. اتوماسیون مالی به مردم میآموزد که بازارها فراتر از نفوذ انسان هستند. هر سیستم این حس را که انتخاب فردی مهم است، کمکم از بین میبرد. و عوامل هوش مصنوعی، به دلیل اینکه سریعتر و مبهمتر از هر چیز دیگری قبل از خود عمل میکنند، این فرآیند را تسریع میکنند.
اختیار یک حالت پیشفرض نیست. چیزی است که یا آن را تمرین میکنید یا از دست میدهید. هر چه بیشتر به سیستمها تسلیم شوید، کمتر قادر به اعمال قضاوت خود خواهید بود. هر چه بیشتر نتایج الگوریتمی را بدون چون و چرا بپذیرید، تصور اینکه اوضاع میتوانست طور دیگری باشد، دشوارتر میشود. این بزرگترین خطر است. نه کنترل توسط ماشینها، بلکه عادت کردن به تصمیمگیری نکردن.
کاری که واقعاً میتوانید انجام دهید
مقاومت در برابر فرسایش عاملیت نیازی به اقدامات بزرگ ندارد. بلکه به تمرین روزمره نیاز دارد. با زیر سوال بردن اتوماسیون نامرئی شروع کنید. وقتی سیستمی تصمیمی میگیرد که بر شما تأثیر میگذارد، بپرسید که چگونه کار میکند و چه کسی مسئول است. قبل از اعتماد به نتایج خودکار، بپرسید که آیا نتیجه منطقی است و آیا سیستم ممکن است چیز مهمی را از قلم انداخته باشد. سیستمهایی را که خودشان را توضیح میدهند، به جعبههای سیاهی که نیاز به اعتماد دارند، ترجیح دهید.
در جایی که مهم است، مشارکت کنید. تصمیمات را صرفاً به این دلیل که میتوانید، به دیگران واگذار نکنید. اگر ابزاری پیشنهاد میدهد که ایمیلهای شما را بنویسد، کار شما را ویرایش کند یا از طرف شما توصیههایی ارائه دهد، در نظر بگیرید که آیا این راحتی ارزش فاصلهای را که بین شما و وظیفه ایجاد میکند، دارد یا خیر. و وقتی با سیستمهایی مواجه میشوید که بدون پاسخگویی عمل میکنند، درخواست بهتری داشته باشید. تصمیمات الگوریتمی را پس بزنید. درخواست بررسی انسانی کنید. از پذیرش اینکه پاسخ سیستم صرفاً به دلیل خودکار بودن، نهایی است، خودداری کنید.
اختیار یک عمل است، نه یک تنظیم پیشفرض. هر بار که یک نتیجهی خودکار را زیر سوال میبرید، در حال اعمال ظرفیتی هستید که به دلیل عدم استفاده تحلیل میرود. هر بار که بر پاسخگویی انسانی اصرار دارید، در حال مقابله با عادیسازی اقتدار الگوریتمی هستید. این اقدامات کوچکِ انتخاب آگاهانه اهمیت دارند زیرا محیطی را که دیگران در آن حرکت میکنند، شکل میدهند.
ابزارهایی که ما شکل میدهیم یا نیروهایی که ما را شکل میدهند
عاملهای هوش مصنوعی ابزارهایی هستند که ما طراحی میکنیم. این اولین حقیقت است. اما پس از استقرار، رفتار و قدرت را تغییر شکل میدهند. این دومین حقیقت است. هر دو واقعی هستند و تظاهر به خلاف آن خطرناک است. سوال این نیست که آیا این سیستمها به فعالیت خود ادامه خواهند داد یا خیر. آنها ادامه خواهند داد. سوال این است که آیا انسانها در قبال آنچه به نام آنها عمل میکند، پاسخگو خواهند ماند یا خیر.
آینده همین الان از طریق یک میلیون تصمیم کوچک در مورد اینکه کجا خودکارسازی شود و کجا بر قضاوت انسانی اصرار شود، در حال ساخته شدن است. این تصمیمات فقط فنی نیستند. آنها اخلاقی هستند. آنها در مورد این هستند که ما مایل به زندگی در چه نوع دنیایی هستیم و چه نوع نهادی را حاضر به حفظ آن هستیم. مسیر پیشفرض مشخص است. اتوماسیون بیشتر، نظارت کمتر، راحتی بیشتر، مسئولیت کمتر. این مسیر آسان است زیرا سودآور و کارآمد است و اجتنابناپذیر به نظر میرسد.
اما اجتنابناپذیری داستانی است که ما برای جلوگیری از ناراحتی انتخاب به خودمان میگوییم. واقعیت این است که هر استقرار یک عامل هوش مصنوعی یک انتخاب است. هر پذیرش اقتدار الگوریتمی یک انتخاب است. هر بار که شانه بالا میاندازیم و میگوییم سیستم تصمیم گرفته است، یک انتخاب است. و هر انتخابی آنچه را که در ادامه میآید شکل میدهد. بنابراین سوال این نیست که هوش مصنوعی چه خواهد کرد. سوال این است که شما هنوز مایلید خودتان چه تصمیماتی بگیرید. پاسخ به این سوال بیش از هر الگوریتمی اهمیت دارد.
درباره نویسنده
الکس جردن نویسندهی InnerSelf.com است.
کتابهای توصیه شده
مشکل هم ترازی: یادگیری ماشین و ارزش های انسانی
کاوشی عمیق و محققانه در مورد چگونگی یادگیری ارزشها توسط سیستمهای هوش مصنوعی و اینکه چرا همسو کردن آنها با شکوفایی انسان بسیار پیچیدهتر از آن چیزی است که اکثر مردم تصور میکنند.
سلاحهای تخریب ریاضی: چگونه کلانداده نابرابری را افزایش میدهد و دموکراسی را تهدید میکند
بررسی قابل فهمی از چگونگی تثبیت نابرابری توسط الگوریتمها و عملکرد بدون پاسخگویی، نوشتهی ریاضیدانی که درون سیستمهایی که او نقد میکند، کار کرده است.
خودکارسازی نابرابری: چگونه ابزارهای پیشرفته، فقرا را شناسایی، کنترل و مجازات میکنند
تحقیقی قدرتمند در مورد چگونگی هدف قرار دادن و مجازات فقرا توسط سیستمهای خودکار، که هزینه انسانی تصمیمگیری الگوریتمی در خدمات عمومی را آشکار میکند.
خلاصه مقاله
عاملهای هوش مصنوعی نشاندهندهی تغییر از ابزارهایی هستند که به قضاوت انسان کمک میکنند، به سیستمهایی که جایگزین آن میشوند و با ابتکار و استقلال عمل میکنند و سرعتی دارند که نظارت را دشوار میکند. خطر واقعی هوش ماشینی نیست، بلکه فرسایش تدریجی عامل انسانی است، زیرا ما با تصمیمگیری خودکار بدون پاسخگویی سازگار میشویم. استفادهی اخلاقی مستلزم مسئول نگه داشتن انسانها در قبال تصمیمات مهم، حفظ شفافیت و شناخت این است که بهینهسازی بدون خرد، آسیبهای قابل پیشبینی ایجاد میکند.
#عاملان_هوش_مصنوعی #اتوماسیون #آژانس_انسانی #پاسخگویی_الگوریتمی #هوش_مصنوعی_اخلاقی #خودمختاری_دیجیتال #فناوری_و_اخلاق





