مردان - و کشورها - در جنگ
ناپلئون می‌توانست از گذشته درس بگیرد. نقاشی از آدولف نورتن/ویکی‌پدیا

این یک کلیشه است که ندانستن تاریخ باعث تکرار آن می‌شود. همانطور که بسیاری از مردم نیز اشاره کرده‌اند، تنها چیزی که از تاریخ می‌آموزیم این است که به ندرت چیزی از تاریخ می‌آموزیم. مردم درگیر می‌شوند جنگ‌های زمینی در آسیا بارها و بارها. آنها همچنین اشتباهات مشابه در قرار ملاقات را بارها و بارها تکرار می‌کنند. اما چرا این اتفاق می‌افتد؟ و آیا فناوری به آن پایان خواهد داد؟

یک مسئله فراموشی است و "نزدیک بینی«: ما نمی‌بینیم که رویدادهای گذشته چگونه به رویدادهای کنونی مربوط می‌شوند و از الگوی در حال وقوع غافل می‌شویم. ناپلئون باید به شباهت‌های بین لشکرکشی خود به مسکو و پادشاه سوئد توجه می‌کرد.» تلاش ناموفق چارلز دوازدهم برای انجام همین کار تقریباً یک قرن قبل از او.

ما هم هستیم در یادگیری ضعیف است وقتی اوضاع خراب می‌شود. به جای اینکه مشخص کنیم چرا یک تصمیم اشتباه بوده و چگونه می‌توان از تکرار آن جلوگیری کرد، اغلب سعی می‌کنیم اتفاقات شرم‌آور را نادیده بگیریم. این یعنی دفعه بعد که موقعیت مشابهی پیش می‌آید، شباهت را نمی‌بینیم و اشتباه را تکرار می‌کنیم.

هر دو مشکل مربوط به اطلاعات را آشکار می‌کنند. در مورد اول، ما نمی‌توانیم اطلاعات شخصی یا تاریخی را به خاطر بسپاریم. در مورد دوم، وقتی اطلاعات در دسترس هستند، نمی‌توانیم آنها را رمزگذاری کنیم.


گرافیک اشتراک‌گذاری از درون


با این اوصاف، ما همچنین وقتی نمی‌توانیم به طور مؤثر استنباط کنیم که چه اتفاقی قرار است بیفتد، اشتباه می‌کنیم. شاید موقعیت بیش از حد پیچیده یا بیش از حد زمان‌بر باشد که بتوان در مورد آن فکر کرد. یا اینکه ما به طور مغرضانه آنچه را که در حال رخ دادن است، اشتباه تفسیر می‌کنیم.

قدرت آزاردهنده‌ی فناوری

اما مطمئناً فناوری می‌تواند به ما کمک کند؟ اکنون می‌توانیم اطلاعات را خارج از مغز خود ذخیره کنیم و از رایانه‌ها برای بازیابی آن استفاده کنیم. این باید یادگیری و به خاطر سپردن را آسان کند، درست است؟

ذخیره اطلاعات زمانی مفید است که بتوان آن را به خوبی بازیابی کرد. اما به خاطر سپردن با بازیابی یک فایل از یک مکان یا تاریخ مشخص متفاوت است. به خاطر سپردن شامل تشخیص شباهت‌ها و به خاطر آوردن مطالب است.

یک هوش مصنوعی (AI) همچنین باید بتواند خود به خود شباهت‌ها را به ذهن ما بیاورد - اغلب شباهت‌های ناخواسته. اما اگر در تشخیص شباهت‌های احتمالی خوب باشد (به هر حال، می‌تواند تمام اینترنت و تمام داده‌های شخصی ما را جستجو کند)، اغلب موارد نادرست را نیز تشخیص خواهد داد.

برای قرارهای ناموفق، ممکن است ذکر شود که همه آنها شامل شام بوده‌اند. اما هرگز مشکل، شام نبود. و وجود گل لاله روی میز کاملاً تصادفی بود - هیچ دلیلی برای اجتناب از آنها وجود ندارد. ما اغلب اشتباهات دوران آشنایی را تکرار می‌کنیم. 

این یعنی در مورد چیزهایی که برایمان مهم نیست، احتمالاً به شیوه‌ای آزاردهنده، به ما هشدار می‌دهد. کاهش حساسیت آن به معنای افزایش خطر عدم دریافت هشدار در زمان نیاز است.

این یک مشکل اساسی است و به همان اندازه در مورد هر مشاوری صدق می‌کند: مشاور محتاط اغلب دروغ می‌گوید، مشاور خوش‌بین ریسک‌ها را از دست می‌دهد.

یک مشاور خوب کسی است که به او اعتماد داریم. آنها تقریباً به همان اندازه ما محتاط هستند و می‌دانیم که می‌دانند چه می‌خواهیم. یافتن این ویژگی در یک مشاور انسانی دشوار است، و حتی بیشتر در یک هوش مصنوعی.

فناوری کجا جلوی اشتباهات را می‌گیرد؟ فناوریِ ضد حماقت جواب می‌دهد. دستگاه‌های برش از شما می‌خواهند که دکمه‌ها را نگه دارید و دستانتان را از تیغه‌ها دور نگه دارید. اگر اپراتور ناتوان شود، یک «کلید اضطراری» دستگاه را متوقف می‌کند.

اجاق‌های مایکروویو وقتی در باز می‌شود، تشعشعات را خاموش می‌کنند. برای پرتاب موشک، دو نفر باید همزمان کلیدها را در یک اتاق بچرخانند. در اینجا، طراحی دقیق، اشتباه کردن را دشوار می‌کند. اما ما به موقعیت‌های کم‌اهمیت‌تر به اندازه کافی اهمیت نمی‌دهیم و همین باعث می‌شود طراحی آنجا خیلی کمتر از حماقت مصون باشد.

وقتی فناوری خوب کار می‌کند، ما اغلب بیش از حد به آن اعتماد می‌کنیم. خلبانان خطوط هوایی امروزه به دلیل کارایی شگفت‌انگیز سیستم‌های خلبان خودکار، ساعات پرواز واقعی کمتری نسبت به گذشته دارند. این خبر بدی است وقتی که خلبان خودکار از کار می‌افتد و خلبان تجربه کمتری برای اصلاح وضعیت دارد.

اولین مورد از یک نسل جدیدی از سکوی نفتی (Sleipnir A) غرق شد زیرا مهندسان به محاسبه‌ی نرم‌افزاری نیروهای وارد بر آن اعتماد داشتند. مدل اشتباه بود، اما نتایج را به گونه‌ای قانع‌کننده ارائه می‌داد که قابل اعتماد به نظر می‌رسیدند.

بخش زیادی از فناوری ما به طرز شگفت‌انگیزی قابل اعتماد است. برای مثال، ما متوجه نمی‌شویم که چگونه بسته‌های داده گمشده در اینترنت دائماً در پشت صحنه پیدا می‌شوند، چگونه کدهای تصحیح خطا نویز را حذف می‌کنند یا چگونه فیوزها و افزونگی، لوازم خانگی را ایمن می‌کنند.

اما وقتی سطح به سطح پیچیدگی را بررسی می‌کنیم، بسیار غیرقابل اعتماد به نظر می‌رسد. ما متوجه می‌شویم که ویدیوی زوم با تأخیر مواجه می‌شود، برنامه هوش مصنوعی اشتباه پاسخ می‌دهد یا کامپیوتر از کار می‌افتد. با این حال، از هر کسی که ۵۰ سال پیش از کامپیوتر یا ماشین استفاده می‌کرده بپرسید که آنها واقعاً چگونه کار می‌کردند، و متوجه خواهید شد که آنها هم توانایی کمتری داشتند و هم قابل اعتمادتر بودند.

ما فناوری را پیچیده‌تر می‌کنیم تا جایی که استفاده از آن بیش از حد آزاردهنده یا ناامن می‌شود. با بهتر و قابل اعتمادتر شدن قطعات، اغلب ترجیح می‌دهیم ویژگی‌های جدید هیجان‌انگیز و مفید را به آن اضافه کنیم تا اینکه به آنچه کار می‌کند، پایبند بمانیم. این در نهایت باعث می‌شود فناوری از آنچه می‌تواند باشد، کمتر قابل اعتماد باشد.

اشتباهاتی رخ خواهد داد

به همین دلیل است که هوش مصنوعی برای جلوگیری از اشتباهات، شمشیری دولبه است. اتوماسیون اغلب وقتی کار می‌کند، اوضاع را ایمن‌تر و کارآمدتر می‌کند، اما وقتی شکست می‌خورد، مشکل را بسیار بزرگتر می‌کند. خودمختاری به این معنی است که نرم‌افزار هوشمند می‌تواند تفکر ما را تکمیل کند و از بار ما بکاهد، اما وقتی آنطور که ما می‌خواهیم فکر نمی‌کند، می‌تواند بدرفتاری کند.

هر چه پیچیده‌تر باشد، اشتباهات می‌توانند شگفت‌انگیزتر باشند. هر کسی که با دانشمندان بسیار باهوش سروکار داشته باشد، می‌داند که وقتی عقل سلیمشان کارساز نیست، چقدر خوب می‌توانند با نبوغ زیاد اوضاع را خراب کنند - و هوش مصنوعی عقل سلیم انسانی بسیار کمی دارد.

این همچنین دلیل مهمی برای نگرانی در مورد هدایت تصمیم‌گیری توسط هوش مصنوعی است: آنها انواع جدیدی از اشتباهات را مرتکب می‌شوندما انسان‌ها اشتباهات انسانی را می‌دانیم، به این معنی که می‌توانیم مراقب آنها باشیم. اما ماشین‌های هوشمند می‌توانند اشتباهاتی مرتکب شوند که هرگز تصورش را هم نمی‌کردیم.

علاوه بر این، سیستم‌های هوش مصنوعی توسط انسان‌ها برنامه‌ریزی و آموزش داده می‌شوند. و نمونه‌های زیادی از چنین سیستم‌هایی وجود دارد. متعصب و حتی متعصب شدنآنها از تعصبات تقلید می‌کنند و اشتباهات دنیای انسان‌ها را تکرار می‌کنند، حتی زمانی که افراد درگیر صریحاً سعی در اجتناب از آنها دارند.

در نهایت، اشتباهات همچنان رخ خواهند داد. دلایل اساسی وجود دارد که چرا ما در مورد جهان اشتباه می‌کنیم، چرا همه چیزهایی را که باید به خاطر بسپاریم به خاطر نمی‌آوریم، و چرا فناوری ما نمی‌تواند به طور کامل به ما در جلوگیری از دردسر کمک کند.

اما می‌توانیم برای کاهش عواقب اشتباهات تلاش کنیم. دکمه‌ی لغو و ذخیره‌ی خودکار، اسناد بی‌شماری را در رایانه‌های ما ذخیره کرده‌اند. بنای یادبود در لندن, سنگ‌های سونامی در ژاپن و دیگر بناهای تاریخی، به ما خطرات خاصی را یادآوری می‌کنند. شیوه‌های طراحی خوب، زندگی ما را امن‌تر می‌کنند.

در نهایت، می‌توان از تاریخ چیزی آموخت. هدف ما باید زنده ماندن و درس گرفتن از اشتباهاتمان باشد، نه جلوگیری از وقوع آنها. فناوری می‌تواند در این امر به ما کمک کند، اما باید با دقت در مورد آنچه واقعاً از آن می‌خواهیم فکر کنیم - و بر اساس آن طراحی کنیم.

درباره نویسنده

آندرس سندبرگ، محقق جیمز مارتین، موسسه آینده بشریت و مدرسه مارتین آکسفورد، دانشگاه آکسفورد

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.