خطر ai 7 11
به احتمال زیاد هوش مصنوعی بشریت را به بردگی نمی کشد، اما می تواند بسیاری از جنبه های زندگی ما را در اختیار بگیرد. elenabs/iStock از طریق Getty Images

ظهور ChatGPT و سیستم های هوش مصنوعی مشابه با یک تیز همراه بوده است افزایش اضطراب در مورد هوش مصنوعی. در چند ماه گذشته، مدیران اجرایی و محققان ایمنی هوش مصنوعی پیش‌بینی‌هایی را ارائه کرده‌اند که نام آن‌ها «P (عذاب)در مورد احتمال اینکه هوش مصنوعی فاجعه بزرگی را به بار آورد.

نگرانی ها در می 2023 به اوج خود رسید که سازمان غیرانتفاعی تحقیقات و حمایت از مرکز ایمنی هوش مصنوعی منتشر کرد. بیانیه یک جمله ایکاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات در مقیاس اجتماعی، مانند بیماری های همه گیر و جنگ هسته ای، یک اولویت جهانی باشد. این بیانیه توسط بسیاری از بازیگران کلیدی در این زمینه، از جمله رهبران OpenAI، Google و Anthropic، و همچنین دو نفر از به اصطلاح "پدرخوانده" هوش مصنوعی امضا شده است: جفری هینتون و یوشوا بنجیو.

ممکن است بپرسید که چنین ترس‌های وجودی چگونه ظاهر می‌شوند. یکی از سناریوهای معروف این است کهماکسیمایزر گیره کاغذآزمایش فکری توسط فیلسوف آکسفورد بیان شده است نیک بستروم. ایده این است که یک سیستم هوش مصنوعی که وظیفه تولید هرچه بیشتر گیره های کاغذ را دارد، ممکن است برای یافتن مواد اولیه، مانند تخریب کارخانه ها و ایجاد تصادفات رانندگی، تلاش های فوق العاده ای را انجام دهد.

A تنوع کمتر منابع فشرده دارای یک هوش مصنوعی است که وظیفه رزرو یک رستوران محبوب را دارد که شبکه های تلفن همراه و چراغ های راهنمایی را خاموش می کند تا از گرفتن میز توسط مشتریان دیگر جلوگیری کند.


گرافیک اشتراک درونی


لوازم اداری یا شام، ایده اصلی یکسان است: هوش مصنوعی به سرعت در حال تبدیل شدن به یک هوش بیگانه است، در دستیابی به اهداف خوب است، اما خطرناک است، زیرا لزوماً با ارزش های اخلاقی سازندگانش همخوانی ندارد. و در افراطی‌ترین نسخه‌اش، این استدلال به نگرانی‌های صریح در مورد هوش مصنوعی تبدیل می‌شود به بردگی یا نابودی نسل بشر.

هوش مصنوعی ساخت گیره کاغذ یکی از انواع سناریوی آخرالزمان هوش مصنوعی است.

 

آسیب واقعی

در چند سال گذشته، من و همکارانم در مرکز اخلاق کاربردی UMass بوستون در حال مطالعه تاثیر تعامل با هوش مصنوعی بر درک افراد از خودشان بوده‌ام، و من معتقدم که این نگرانی‌های فاجعه‌بار هستند. بیش از حد و هدایت نادرست.

بله، توانایی هوش مصنوعی برای ایجاد ویدیو و صدای جعلی متقاعد کننده ترسناک است و می تواند توسط افراد با نیت بد مورد سوء استفاده قرار گیرد. در واقع، این در حال حاضر اتفاق می افتد: عوامل روسی احتمالاً سعی کردند منتقد کرملین را شرمنده کنند بیل برودر با به دام انداختن او در گفتگو با آواتار برای پترو پوروشنکو، رئیس جمهور سابق اوکراین. مجرمان سایبری از شبیه سازی صوتی هوش مصنوعی برای جنایات مختلف استفاده می کنند - از سرقت های فناوری پیشرفته به کلاهبرداری های معمولی.

سیستم های تصمیم گیری هوش مصنوعی که ارائه تاییدیه وام و توصیه های استخدام خطر سوگیری الگوریتمی را به همراه دارد، زیرا داده‌های آموزشی و مدل‌های تصمیمی که آنها بر روی آنها اجرا می‌کنند منعکس کننده تعصبات اجتماعی طولانی مدت هستند.

اینها مشکلات بزرگی است و توجه سیاستگذاران را می طلبد. اما آنها مدتی است که در اطراف هستند و به سختی فاجعه آمیز هستند.

نه در همین لیگ

بیانیه مرکز ایمنی هوش مصنوعی هوش مصنوعی را با بیماری های همه گیر و سلاح های هسته ای به عنوان یک خطر بزرگ برای تمدن همراه کرد. این مقایسه مشکلاتی دارد. COVID-19 تقریباً منجر شد 7 میلیون مرگ در سراسر جهان، آورده بر روی یک بحران گسترده و مداوم سلامت روان و ایجاد کرد چالش های اقتصادیاز جمله کمبودهای مزمن زنجیره تامین و تورم سرسام آور.

سلاح های هسته ای احتمالا کشته شده اند بیشتر از 200,000 مردم در هیروشیما و ناکازاکی در سال 1945، در سال‌های بعد جان بسیاری از سرطان گرفت، دهه‌ها اضطراب عمیق در طول جنگ سرد ایجاد کرد و جهان را در جریان بحران موشکی کوبا در سال 1962 به آستانه نابودی رساند. محاسبات رهبران ملی را تغییر داد در مورد چگونگی پاسخ به تجاوزات بین المللی، همانطور که در حال حاضر با حمله روسیه به اوکراین بازی می کند.

هوش مصنوعی به سادگی توانایی ایجاد این نوع آسیب را ندارد. سناریوی گیره کاغذ و موارد دیگر مانند آن علمی تخیلی هستند. برنامه های کاربردی هوش مصنوعی موجود، وظایف خاصی را به جای قضاوت های گسترده انجام می دهند. فن آوری است به دور از توانایی تصمیم گیری و سپس برنامه ریزی اهداف و اهداف فرعی لازم برای خاموش کردن ترافیک به منظور به دست آوردن یک صندلی در یک رستوران، یا منفجر کردن یک کارخانه اتومبیل به منظور رفع خارش شما برای گیره های کاغذ.

این فناوری نه تنها فاقد ظرفیت پیچیده برای قضاوت چند لایه است که در این سناریوها دخیل است، بلکه دسترسی مستقلی به بخش های کافی از زیرساخت های حیاتی ما برای شروع ایجاد چنین آسیبی ندارد.

چه چیزی به معنای انسان بودن است؟

در واقع، یک خطر وجودی ذاتی در استفاده از هوش مصنوعی وجود دارد، اما این خطر در مفهوم فلسفی و نه آخرالزمانی وجود دارد. هوش مصنوعی در شکل کنونی خود می تواند دیدگاه افراد را نسبت به خود تغییر دهد. می تواند توانایی ها و تجربیاتی را که مردم برای انسان بودن ضروری می دانند، تنزل دهد.

به عنوان مثال، انسان ها موجوداتی هستند که قضاوت می کنند. مردم به طور منطقی جزئیات را می سنجند و روزانه در محل کار و در اوقات فراغت در مورد اینکه چه کسی را استخدام کنند، چه کسی باید وام بگیرند، چه چیزی را تماشا کنند و غیره قضاوت می کنند. اما بیشتر و بیشتر از این قضاوت ها هستند خودکار شده و به الگوریتم ها تبدیل می شود. همانطور که این اتفاق می افتد، جهان به پایان نخواهد رسید. اما مردم به تدریج توانایی انجام این قضاوت ها را از دست خواهند داد. هرچه افراد کمتری از آنها بسازند، احتمال دارد در ساختن آنها بدتر شوند.

یا نقش شانس را در زندگی مردم در نظر بگیرید. انسان‌ها برای برخوردهای بی‌نظیر ارزش قائل هستند: برخورد تصادفی با یک مکان، شخص یا فعالیت، جذب شدن به آن و درک گذشته‌نگر از نقش حادثه در این یافته‌های معنادار. اما نقش موتورهای توصیه الگوریتمی این است که این نوع خوشبختی را کاهش دهید و آن را با برنامه ریزی و پیش بینی جایگزین کنید.

در نهایت، قابلیت های نوشتن ChatGPT را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است. اگر چنین شود، مربیان یک ابزار کلیدی برای آموزش دانش آموزان را از دست خواهند داد چگونه انتقادی فکر کنیم.

نمرده ولی کم شده

بنابراین، نه، هوش مصنوعی دنیا را منفجر نخواهد کرد. اما پذیرش غیرانتقادی فزاینده آن، در زمینه‌های مختلف محدود، به معنای فرسایش تدریجی برخی از مهم‌ترین مهارت‌های انسان است. الگوریتم‌ها در حال حاضر توانایی افراد برای قضاوت کردن، لذت بردن از برخوردهای بی‌نظیر و تقویت تفکر انتقادی را تضعیف می‌کنند.

نوع بشر از چنین خساراتی جان سالم به در خواهد برد. اما راه وجودی ما در این روند ضعیف خواهد شد. نگرانی های خارق العاده در مورد فاجعه هوش مصنوعی آینده، تکینگی، Skynet، یا هر طور که ممکن است فکرش را بکنید، این هزینه های ظریف تر را مبهم می کند. خط پایانی معروف تی اس الیوت را به یاد بیاوریدمردان توخالیاو نوشت: «این راهی است که دنیا به پایان می رسد، نه با صدای بلند، بلکه با ناله.»گفتگو

درباره نویسنده

نیر آیزیکوویتساستاد فلسفه و مدیر مرکز اخلاق کاربردی UMass بوستون

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.