به احتمال زیاد هوش مصنوعی بشریت را به بردگی نمی کشد، اما می تواند بسیاری از جنبه های زندگی ما را در اختیار بگیرد. elenabs/iStock از طریق Getty Images
ظهور ChatGPT و سیستم های هوش مصنوعی مشابه با یک تیز همراه بوده است افزایش اضطراب در مورد هوش مصنوعی. در چند ماه گذشته، مدیران اجرایی و محققان ایمنی هوش مصنوعی پیشبینیهایی را ارائه کردهاند که نام آنها «P (عذاب)در مورد احتمال اینکه هوش مصنوعی فاجعه بزرگی را به بار آورد.
نگرانی ها در می 2023 به اوج خود رسید که سازمان غیرانتفاعی تحقیقات و حمایت از مرکز ایمنی هوش مصنوعی منتشر کرد. بیانیه یک جمله ایکاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات در مقیاس اجتماعی، مانند بیماری های همه گیر و جنگ هسته ای، یک اولویت جهانی باشد. این بیانیه توسط بسیاری از بازیگران کلیدی در این زمینه، از جمله رهبران OpenAI، Google و Anthropic، و همچنین دو نفر از به اصطلاح "پدرخوانده" هوش مصنوعی امضا شده است: جفری هینتون و یوشوا بنجیو.
ممکن است بپرسید که چنین ترسهای وجودی چگونه ظاهر میشوند. یکی از سناریوهای معروف این است کهماکسیمایزر گیره کاغذآزمایش فکری توسط فیلسوف آکسفورد بیان شده است نیک بستروم. ایده این است که یک سیستم هوش مصنوعی که وظیفه تولید هرچه بیشتر گیره های کاغذ را دارد، ممکن است برای یافتن مواد اولیه، مانند تخریب کارخانه ها و ایجاد تصادفات رانندگی، تلاش های فوق العاده ای را انجام دهد.
A تنوع کمتر منابع فشرده دارای یک هوش مصنوعی است که وظیفه رزرو یک رستوران محبوب را دارد که شبکه های تلفن همراه و چراغ های راهنمایی را خاموش می کند تا از گرفتن میز توسط مشتریان دیگر جلوگیری کند.
لوازم اداری یا شام، ایده اصلی یکسان است: هوش مصنوعی به سرعت در حال تبدیل شدن به یک هوش بیگانه است، در دستیابی به اهداف خوب است، اما خطرناک است، زیرا لزوماً با ارزش های اخلاقی سازندگانش همخوانی ندارد. و در افراطیترین نسخهاش، این استدلال به نگرانیهای صریح در مورد هوش مصنوعی تبدیل میشود به بردگی یا نابودی نسل بشر.
آسیب واقعی
در چند سال گذشته، من و همکارانم در مرکز اخلاق کاربردی UMass بوستون در حال مطالعه تاثیر تعامل با هوش مصنوعی بر درک افراد از خودشان بودهام، و من معتقدم که این نگرانیهای فاجعهبار هستند. بیش از حد و هدایت نادرست.
بله، توانایی هوش مصنوعی برای ایجاد ویدیو و صدای جعلی متقاعد کننده ترسناک است و می تواند توسط افراد با نیت بد مورد سوء استفاده قرار گیرد. در واقع، این در حال حاضر اتفاق می افتد: عوامل روسی احتمالاً سعی کردند منتقد کرملین را شرمنده کنند بیل برودر با به دام انداختن او در گفتگو با آواتار برای پترو پوروشنکو، رئیس جمهور سابق اوکراین. مجرمان سایبری از شبیه سازی صوتی هوش مصنوعی برای جنایات مختلف استفاده می کنند - از سرقت های فناوری پیشرفته به کلاهبرداری های معمولی.
سیستم های تصمیم گیری هوش مصنوعی که ارائه تاییدیه وام و توصیه های استخدام خطر سوگیری الگوریتمی را به همراه دارد، زیرا دادههای آموزشی و مدلهای تصمیمی که آنها بر روی آنها اجرا میکنند منعکس کننده تعصبات اجتماعی طولانی مدت هستند.
اینها مشکلات بزرگی است و توجه سیاستگذاران را می طلبد. اما آنها مدتی است که در اطراف هستند و به سختی فاجعه آمیز هستند.
نه در همین لیگ
بیانیه مرکز ایمنی هوش مصنوعی هوش مصنوعی را با بیماری های همه گیر و سلاح های هسته ای به عنوان یک خطر بزرگ برای تمدن همراه کرد. این مقایسه مشکلاتی دارد. COVID-19 تقریباً منجر شد 7 میلیون مرگ در سراسر جهان، آورده بر روی یک بحران گسترده و مداوم سلامت روان و ایجاد کرد چالش های اقتصادیاز جمله کمبودهای مزمن زنجیره تامین و تورم سرسام آور.
سلاح های هسته ای احتمالا کشته شده اند بیشتر از 200,000 مردم در هیروشیما و ناکازاکی در سال 1945، در سالهای بعد جان بسیاری از سرطان گرفت، دههها اضطراب عمیق در طول جنگ سرد ایجاد کرد و جهان را در جریان بحران موشکی کوبا در سال 1962 به آستانه نابودی رساند. محاسبات رهبران ملی را تغییر داد در مورد چگونگی پاسخ به تجاوزات بین المللی، همانطور که در حال حاضر با حمله روسیه به اوکراین بازی می کند.
هوش مصنوعی به سادگی توانایی ایجاد این نوع آسیب را ندارد. سناریوی گیره کاغذ و موارد دیگر مانند آن علمی تخیلی هستند. برنامه های کاربردی هوش مصنوعی موجود، وظایف خاصی را به جای قضاوت های گسترده انجام می دهند. فن آوری است به دور از توانایی تصمیم گیری و سپس برنامه ریزی اهداف و اهداف فرعی لازم برای خاموش کردن ترافیک به منظور به دست آوردن یک صندلی در یک رستوران، یا منفجر کردن یک کارخانه اتومبیل به منظور رفع خارش شما برای گیره های کاغذ.
این فناوری نه تنها فاقد ظرفیت پیچیده برای قضاوت چند لایه است که در این سناریوها دخیل است، بلکه دسترسی مستقلی به بخش های کافی از زیرساخت های حیاتی ما برای شروع ایجاد چنین آسیبی ندارد.
چه چیزی به معنای انسان بودن است؟
در واقع، یک خطر وجودی ذاتی در استفاده از هوش مصنوعی وجود دارد، اما این خطر در مفهوم فلسفی و نه آخرالزمانی وجود دارد. هوش مصنوعی در شکل کنونی خود می تواند دیدگاه افراد را نسبت به خود تغییر دهد. می تواند توانایی ها و تجربیاتی را که مردم برای انسان بودن ضروری می دانند، تنزل دهد.
به عنوان مثال، انسان ها موجوداتی هستند که قضاوت می کنند. مردم به طور منطقی جزئیات را می سنجند و روزانه در محل کار و در اوقات فراغت در مورد اینکه چه کسی را استخدام کنند، چه کسی باید وام بگیرند، چه چیزی را تماشا کنند و غیره قضاوت می کنند. اما بیشتر و بیشتر از این قضاوت ها هستند خودکار شده و به الگوریتم ها تبدیل می شود. همانطور که این اتفاق می افتد، جهان به پایان نخواهد رسید. اما مردم به تدریج توانایی انجام این قضاوت ها را از دست خواهند داد. هرچه افراد کمتری از آنها بسازند، احتمال دارد در ساختن آنها بدتر شوند.
یا نقش شانس را در زندگی مردم در نظر بگیرید. انسانها برای برخوردهای بینظیر ارزش قائل هستند: برخورد تصادفی با یک مکان، شخص یا فعالیت، جذب شدن به آن و درک گذشتهنگر از نقش حادثه در این یافتههای معنادار. اما نقش موتورهای توصیه الگوریتمی این است که این نوع خوشبختی را کاهش دهید و آن را با برنامه ریزی و پیش بینی جایگزین کنید.
در نهایت، قابلیت های نوشتن ChatGPT را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است. اگر چنین شود، مربیان یک ابزار کلیدی برای آموزش دانش آموزان را از دست خواهند داد چگونه انتقادی فکر کنیم.
نمرده ولی کم شده
بنابراین، نه، هوش مصنوعی دنیا را منفجر نخواهد کرد. اما پذیرش غیرانتقادی فزاینده آن، در زمینههای مختلف محدود، به معنای فرسایش تدریجی برخی از مهمترین مهارتهای انسان است. الگوریتمها در حال حاضر توانایی افراد برای قضاوت کردن، لذت بردن از برخوردهای بینظیر و تقویت تفکر انتقادی را تضعیف میکنند.
نوع بشر از چنین خساراتی جان سالم به در خواهد برد. اما راه وجودی ما در این روند ضعیف خواهد شد. نگرانی های خارق العاده در مورد فاجعه هوش مصنوعی آینده، تکینگی، Skynet، یا هر طور که ممکن است فکرش را بکنید، این هزینه های ظریف تر را مبهم می کند. خط پایانی معروف تی اس الیوت را به یاد بیاوریدمردان توخالیاو نوشت: «این راهی است که دنیا به پایان می رسد، نه با صدای بلند، بلکه با ناله.»
درباره نویسنده
نیر آیزیکوویتساستاد فلسفه و مدیر مرکز اخلاق کاربردی UMass بوستون
این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.