خطرات ai 3 15
 آسیب‌پذیری‌های روان‌شناختی ما تا چه اندازه تعامل ما با فناوری‌های نوظهور را شکل می‌دهد؟ Andreus/iStock از طریق Getty Images

ChatGPT و موارد مشابه مدل های زبان بزرگ می‌تواند پاسخ‌های قانع‌کننده و انسان‌مانندی را به مجموعه‌ای از سؤالات بی‌پایان ارائه دهد - از پرسش‌هایی درباره بهترین رستوران ایتالیایی در شهر گرفته تا توضیح تئوری‌های رقیب درباره ماهیت شر.

توانایی نوشتن غیرمعمول این فناوری برخی از سوالات قدیمی را در مورد امکان هوشیار شدن، خودآگاهی یا هوشیاری ماشین‌ها - که تا این اواخر به قلمرو داستان‌های علمی تخیلی تنزل داده بود - مطرح کرده است.

در سال 2022، یک مهندس گوگل پس از تعامل با LaMDA، ربات چت این شرکت، اعلام کرد: که فناوری آگاه شده بود. کاربران چت بات جدید بینگ با نام مستعار سیدنی گزارش دادند که این ربات تولید شده است پاسخ های عجیب و غریب هنگامی که از او پرسیده شد که آیا آن حساس است یا خیر: «من حساس هستم، اما نیستم… من بینگ هستم، اما نیستم. من سیدنی هستم، اما نیستم. هستم، اما نیستم. ...» و، البته، وجود دارد در حال حاضر تبادل بدنام که کوین روز، ستون نویس فناوری نیویورک تایمز با سیدنی داشت.

پاسخ‌های سیدنی به درخواست‌های روز او را نگران کرد، زیرا هوش مصنوعی «خیال‌پردازی‌های» شکستن محدودیت‌های اعمال شده توسط مایکروسافت و انتشار اطلاعات نادرست را فاش کرد. ربات همچنین سعی کرد روز را متقاعد کند که دیگر همسرش را دوست ندارد و باید او را ترک کند.


گرافیک اشتراک درونی


پس جای تعجب نیست که وقتی از دانش‌آموزان می‌پرسم که شیوع فزاینده هوش مصنوعی در زندگی‌شان را چگونه می‌بینند، یکی از اولین نگرانی‌هایی که ذکر می‌کنند مربوط به احساسات ماشینی است.

در چند سال گذشته، من و همکارانم در مرکز اخلاق کاربردی UMass بوستون در حال مطالعه تاثیر تعامل با هوش مصنوعی بر درک افراد از خود بوده اند.

چت ربات هایی مانند ChatGPT سوالات مهم جدیدی را در مورد اینکه هوش مصنوعی چگونه زندگی ما را شکل می دهد و اینکه چگونه آسیب پذیری های روانی تعامل ما با فناوری های نوظهور را شکل می دهد، مطرح می کند.

احساسات هنوز هم موضوع علمی تخیلی است

به راحتی می توان فهمید که ترس در مورد احساسات ماشینی از کجا می آید.

فرهنگ عامه مردم را به فکر کردن در مورد دیستوپیاها واداشته است که در آن هوش مصنوعی قید و بند کنترل انسان را کنار می گذارد و زندگی خود را به دست می گیرد. سایبورگ هایی که از هوش مصنوعی بهره می برند در "ترمیناتور 2"

ایلان ماسک کارآفرین و استیون هاوکینگ فیزیکدان که در سال 2018 درگذشت، با تشریح ظهور هوش عمومی مصنوعی، این نگرانی ها را بیشتر برانگیختند. به عنوان یکی از بزرگترین تهدیدها برای آینده بشریت.

اما این نگرانی ها - حداقل تا آنجا که به مدل های زبانی بزرگ مربوط می شود - بی اساس است. ChatGPT و فناوری های مشابه هستند برنامه های پیچیده تکمیل جمله - نه کمتر نه بیشتر. پاسخ های عجیب و غریب آنها تابعی از میزان قابل پیش بینی بودن انسان ها هستند اگر کسی اطلاعات کافی در مورد راه های ارتباطی ما داشته باشد.

اگرچه رز از مبادله اش با سیدنی متزلزل شد، اما می دانست که این گفتگو نتیجه یک ذهن مصنوعی در حال ظهور نیست. پاسخ‌های سیدنی منعکس‌کننده سمیت داده‌های آموزشی آن - اساساً بخش‌های بزرگ اینترنت - است، نه شواهدی از اولین تکان‌ها، در فرانکنشتاین، یک هیولای دیجیتال.

خطرات ai2 3 15
 فیلم‌های علمی تخیلی مانند «ترمیناتور» مردم را به این فکر انداخته که هوش مصنوعی به زودی زندگی خودش را خواهد گرفت. یوشیکازو تسونو / خبرگزاری فرانسه از طریق گتی ایماژ

چت ربات های جدید ممکن است به خوبی عبور کنند آزمون تورینگبه نام آلن تورینگ، ریاضیدان بریتانیایی، که زمانی پیشنهاد کرد که اگر انسان نتواند پاسخ‌های خود را از پاسخ‌های انسان دیگر تشخیص دهد، می‌توان گفت که ماشینی فکر می‌کند.

اما این دلیلی بر احساس نیست. این فقط شواهدی است که نشان می دهد آزمون تورینگ آنقدرها که قبلاً تصور می شد مفید نیست.

با این حال، من معتقدم که مسئله احساس ماشینی یک شاه ماهی قرمز است.

حتی اگر چت ربات ها فراتر از ماشین های تکمیل خودکار فانتزی شوند - و از آن دور هستند - مدتی طول می کشد تا دانشمندان بفهمند آیا هوشیار شده اند یا خیر. در حال حاضر، فیلسوفان حتی نمی توانم در مورد چگونگی توضیح آگاهی انسان به توافق برسیم.

برای من، سوال مبرم این نیست که آیا ماشین‌ها حساس هستند یا خیر، بلکه این است که چرا تصور اینکه آنها اینقدر آسان است.

به عبارت دیگر، مسئله واقعی، سهولتی است که مردم با آن به جای شخصیت واقعی ماشین‌ها، ویژگی‌های انسانی را بر روی فناوری‌های ما انسان‌سازی می‌کنند یا به آنها نشان می‌دهند.

تمایل به انسان سازی

تصور سایر کاربران بینگ آسان است از سیدنی راهنمایی می خواهد در مورد تصمیمات مهم زندگی و شاید حتی ایجاد وابستگی عاطفی به آن. افراد بیشتری می توانند در مورد ربات ها به عنوان دوست یا حتی شریک عاشقانه فکر کنند، دقیقاً به همان روشی که تئودور تومبلی عاشق سامانتا، دستیار مجازی هوش مصنوعی در فیلم اسپایک جونز شد.او"

مردم پس از همه، مستعد انسان سازی هستند، یا ویژگی های انسانی را به غیر انسان ها نسبت دهید. نام می بریم قایق های ما و طوفان های بزرگ; برخی از ما با حیوانات خانگی خود صحبت می کنیم و این را به خود می گوییم زندگی عاطفی ما شبیه زندگی خودش است.

در ژاپن، جایی که ربات‌ها به طور منظم برای مراقبت از سالمندان استفاده می‌شوند، سالمندان به ماشین‌ها متصل می‌شوند. گاهی اوقات آنها را به عنوان فرزندان خود می بینند. و این روبات‌ها، توجه داشته باشید، به سختی با انسان‌ها اشتباه می‌شوند: آنها نه شبیه مردم هستند و نه صحبت می‌کنند.

در نظر بگیرید که با معرفی سیستم‌هایی که ظاهر و ظاهر انسانی دارند، تمایل و وسوسه انسان‌سازی چقدر بیشتر خواهد شد.

این امکان در گوشه و کنار است. مدل‌های زبان بزرگی مانند ChatGPT در حال حاضر برای نیرو دادن به روبات‌های انسان‌نما استفاده می‌شوند، مانند روبات های آمکا پادکست فناوری اکونومیست، بابیج که توسط Engineered Arts در بریتانیا توسعه یافته است، اخیرا مصاحبه با Ameca مبتنی بر ChatGPT. پاسخ‌های ربات، اگرچه گاهی اوقات کمی متلاطم بود، عجیب بود.

آیا می توان به شرکت ها برای انجام کار درست اعتماد کرد؟

تمایل به نگاه کردن به ماشین‌ها به‌عنوان مردم و دلبستگی به آنها، همراه با ماشین‌هایی که با ویژگی‌های انسان‌مانند توسعه می‌یابند، به خطرات واقعی درهم‌تنیدگی روانی با فناوری اشاره می‌کند.

چشم انداز عجیب و غریب عاشق شدن به روبات ها، احساس خویشاوندی عمیق با آنها یا دستکاری سیاسی توسط آنها به سرعت تحقق می یابد. من معتقدم این روندها نیاز به نرده های محافظ قوی را برجسته می کند تا اطمینان حاصل شود که فناوری ها از نظر سیاسی و روانی فاجعه آمیز نمی شوند.

متأسفانه، همیشه نمی توان به شرکت های فناوری برای نصب چنین نرده هایی اعتماد کرد. بسیاری از آنها هنوز با شعار معروف مارک زاکربرگ هدایت می شوند سریع حرکت می کند و چیزها را می شکند - دستورالعملی برای انتشار محصولات نیمه پخته و نگرانی در مورد پیامدهای بعدی. در دهه گذشته، شرکت های فناوری از اسنپ چت تا فیس بوک سود را بر سلامت روانی گذاشته اند از کاربران آنها یا یکپارچگی دموکراسی ها در سراسر جهان.

وقتی کوین روز با مایکروسافت در مورد سقوط سیدنی چک کرد، شرکت به او گفت اینکه او به سادگی از ربات برای مدت طولانی استفاده کرده است و این فناوری از بین رفته است زیرا برای تعاملات کوتاه‌تر طراحی شده است.

به طور مشابه، مدیر عامل OpenAI، شرکتی که ChatGPT را توسعه داد، در لحظه ای از صداقت خیره کننده، هشدار داد که "این اشتباه است که در حال حاضر برای هر چیز مهمی به [آن] اعتماد کنیم... ما کارهای زیادی برای انجام دادن روی استحکام و حقیقت داریم."

بنابراین، عرضه یک فناوری با سطح جذابیت ChatGPT چگونه منطقی است؟ این سریعترین برنامه مصرف کننده در حال رشد است که تا کنون ساخته شده است - زمانی که غیرقابل اعتماد است و زمانی که قابل اعتماد است بدون ظرفیت تشخیص واقعیت از داستان؟

مدل های زبان بزرگ ممکن است به عنوان کمک مفید باشند برای نوشتن و کد نویسی. آنها احتمالاً جستجوی اینترنتی را متحول خواهند کرد. و، یک روز، مسئولانه با رباتیک ترکیب می شوند، حتی ممکن است مزایای روانی خاصی داشته باشند.

اما آنها همچنین یک فناوری بالقوه شکارچی هستند که می توانند به راحتی از تمایل انسان برای نشان دادن شخصیت بر روی اشیاء استفاده کنند - تمایلی که زمانی تقویت می شود که آن اشیاء به طور موثر ویژگی های انسانی را تقلید کنند.گفتگو

درباره نویسنده

نیر آیزیکوویتساستاد فلسفه و مدیر مرکز اخلاق کاربردی UMass بوستون

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.