همانطور که هوش مصنوعی بیشتر به زندگی روزمره مردم نفوذ می کند، نگرانی در مورد آن نیز افزایش می یابد. نگران کننده ترین نگرانی ها در مورد هوش مصنوعی است سرکش رفتن و پایان دادن به اربابان انسانی آن.

اما پشت فراخوان ها برای الف توقف در توسعه هوش مصنوعی مجموعه ای از آسیب های اجتماعی ملموس تر است. از جمله خطراتی که هوش مصنوعی برای افراد ایجاد می کند حریم خصوصی و کرامت و این واقعیت اجتناب ناپذیر که، از آنجایی که الگوریتم های زیر کلاه هوش مصنوعی توسط انسان برنامه ریزی شده است، به همان اندازه است. جانبدارانه و تبعیض آمیز مانند بسیاری از ما پرتاب در عدم شفافیت در مورد نحوه طراحی هوش مصنوعی و توسط چه کسی، و به راحتی می توان فهمید که چرا این روزها زمان زیادی به آن اختصاص داده شده است بحث در مورد خطرات آن به اندازه پتانسیل آن

اما تحقیق خودم به عنوان یک روانشناس که نحوه تصمیم گیری افراد را مطالعه می کند من را به این باور می رساند که همه این خطرات تحت الشعاع تهدیدی حتی فاسدتر، هرچند تا حد زیادی نامرئی است. به این معنا که هوش مصنوعی تنها یک کلید ساده است که باعث می‌شود افراد در تصمیم‌گیری‌های متفکرانه کمتر منظم و ماهرتر شوند.

تصمیم گیری متفکرانه

فرآیند تصمیم گیری متفکرانه شامل سه مورد است مراحل عقل سلیم که با صرف زمان برای درک کار یا مشکلی که با آن روبرو هستید شروع می شود. از خود بپرسید، چه چیزی را باید بدانید و چه کاری باید انجام دهید تا بتوانید تصمیمی بگیرید که بعداً بتوانید با اطمینان و اطمینان از آن دفاع کنید؟

پاسخ به این سؤالات وابسته به جستجوی فعالانه اطلاعاتی است که هم شکاف های دانش شما را پر می کند و هم باورها و مفروضات قبلی شما را به چالش می کشد. در واقع، این است اطلاعات خلاف واقع - احتمالات جایگزینی که زمانی پدیدار می شوند که افراد بار خود را از مفروضات خاصی رها می کنند - که در نهایت شما را مجهز می کند تا از تصمیمات خود در هنگام انتقاد از آنها دفاع کنید.


گرافیک اشتراک درونی


تصمیم گیری های متفکرانه شامل در نظر گرفتن ارزش های شما و سنجیدن معاوضه است.

مرحله دوم جستجو و در نظر گرفتن بیش از یک گزینه در یک زمان است. آیا می خواهید کیفیت زندگی خود را بهبود بخشید؟ فرقی نمی‌کند به چه کسی رای می‌دهید، شغل‌هایی که می‌پذیرید یا چیزهایی که می‌خرید، همیشه بیش از یک راه وجود دارد که شما را به آنجا می‌رساند. تلاش برای بررسی فعالانه و رتبه بندی حداقل چند گزینه قابل قبول، و به روشی که صادقانه در مورد معاوضه هایی که مایل به انجام آنها هستید در کنار مزایا و معایب آنها، یک انتخاب متفکرانه و قابل دفاع است.

گام سوم، تمایل است تاخیر در بسته شدن در یک تصمیم تا زمانی که همه کارها را انجام دهید بلند کردن ذهنی سنگین لازم. این هیچ رازی نیست: بسته شدن احساس خوبی دارد زیرا به این معنی است که شما یک تصمیم دشوار یا مهم را پشت سر گذاشته اید. اما هزینه حرکت پیش از موعد می تواند بسیار بیشتر از وقت گذاشتن برای انجام تکالیف باشد. اگر حرف من را باور نمی کنید، فقط به تمام آن مواقعی فکر کنید که اجازه می دهید احساساتتان فقط شما را راهنمایی کنند تجربه پشیمانی چون وقت نکردی کمی سخت تر فکر کنی

خطرات برون سپاری تصمیمات به هوش مصنوعی

برداشتن هیچ یک از این سه مرحله خیلی سخت نیست. اما، برای بیشتر، آنها هستند شهودی نیست یا اتخاذ تصمیمات متفکرانه و قابل دفاع نیاز به تمرین و خود انضباطی دارد. و این جایی است که آسیب پنهانی که هوش مصنوعی افراد را در معرض آن قرار می‌دهد ظاهر می‌شود: هوش مصنوعی بیشتر «تفکر» خود را در پشت صحنه انجام می‌دهد و پاسخ‌هایی را به کاربران ارائه می‌دهد که فاقد زمینه و تامل هستند. بدتر از آن، هوش مصنوعی فرصت تمرین فرآیند تصمیم گیری متفکرانه و قابل دفاع را از مردم سلب می کند.

در نظر بگیرید که امروزه مردم چگونه به بسیاری از تصمیمات مهم برخورد می کنند. انسان ها به خاطر بودنشان به خوبی شناخته شده اند مستعد طیف وسیعی از سوگیری ها هستند زیرا وقتی صحبت از صرف انرژی ذهنی به میان می آید، تمایل داریم صرفه جو باشیم. این صرفه جویی باعث می شود که مردم وقتی به ظاهر خوب یا قابل اعتماد هستند، آن را دوست داشته باشند برای آنها تصمیم گیری می شود. و ما هستیم حیوانات اجتماعی کسانی که تمایل دارند امنیت و پذیرش جوامع خود را بیش از آنکه برای خودمختاری خود ارزش قائل شوند، ارزش قائل هستند.

هوش مصنوعی را به ترکیب اضافه کنید و نتیجه یک حلقه بازخورد خطرناک است: داده‌هایی که هوش مصنوعی برای تقویت الگوریتم‌هایش استخراج می‌کند متشکل از تصمیمات مغرضانه مردم که همچنین نشان دهنده فشار انطباق به جای خرد از استدلال انتقادی. اما از آنجایی که مردم دوست دارند برای آنها تصمیم بگیرند، تمایل دارند این تصمیمات بد را بپذیرند و به تصمیم بعدی بروند. در نهایت، نه ما و نه هوش مصنوعی در نهایت عاقل تر نمی شویم.

متفکر بودن در عصر هوش مصنوعی

این اشتباه است که بگوییم هوش مصنوعی هیچ مزیتی برای جامعه ندارد. به احتمال زیاد، به خصوص در زمینه هایی مانند امنیت سایبری, مراقبت های بهداشتی و سرمایه گذاری، که در آن مدل های پیچیده و مقادیر انبوه داده باید به طور معمول و سریع تجزیه و تحلیل شوند. با این حال، اکثر تصمیمات روزانه ما به این نوع اسب بخار تحلیلی نیاز ندارند.

اما چه درخواست کرده باشیم چه نخواهیم، ​​بسیاری از ما قبلاً از هوش مصنوعی مشاوره دریافت کرده ایم – و کارهای انجام شده توسط – در تنظیمات مختلف از سرگرمی و سفر به کارهای مدرسه, مراقبت های بهداشتی و سرمایه گذاری. و طراحان سخت در حال کار هستند نسل بعدی هوش مصنوعی که قادر خواهد بود حتی بیشتر از تصمیمات روزانه ما را خودکار کند. و این به نظر من خطرناک است.

در دنیایی که آنچه و چگونه مردم فکر می‌کنند، به لطف این در حال حاضر تحت محاصره است الگوریتم های رسانه های اجتماعی، اگر به هوش مصنوعی اجازه دهیم به سطحی از پیچیدگی برسد که بتواند انواع تصمیمات را از طرف ما بگیرد، خود را در موقعیت خطرناک تری قرار می دهیم. در واقع، ما مدیون خود هستیم که در برابر صدای آژیر هوش مصنوعی مقاومت کنیم و مالکیت امتیاز واقعی - و مسئولیت - انسان بودن را پس بگیریم: توانایی فکر کردن و انتخاب برای خودمان. ما احساس بهتری خواهیم داشت و مهمتر از همه، اگر این کار را بکنیم بهتر خواهیم شد.گفتگو

جو ارواییدانا و دیوید دورنسایف، استاد روانشناسی و مدیر موسسه محیط زیست و پایداری رایگلی، کالج ادبیات ، هنرها و علوم USC ​​Dornsife

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.