Shutterstock/Valentyn640

در سال 1956، در طی یک سفر یک ساله به لندن و در اوایل دهه 20 زندگی‌اش، ریاضی‌دان و زیست‌شناس نظری جک دی کوان از ویلفرد تیلور و فیلم جدیدش دیدن کرد.ماشین یادگیری". در بدو ورود، او توسط «بانک عظیم دستگاه» که با او روبرو شد، گیج شد. کوان فقط می‌توانست بایستد و «ماشین در حال انجام کار خودش» را تماشا کند. کاری که به نظر می‌رسید انجام می‌داد اجرای یک «طرح حافظه انجمنی» بود – به نظر می‌رسید که می‌توانست یاد بگیرد که چگونه اتصالات را پیدا کند و داده‌ها را بازیابی کند.

شاید شبیه بلوک‌های مدار ناهمواری به نظر می‌رسید که با دست در انبوهی از سیم‌ها و جعبه‌ها به هم لحیم شده‌اند، اما چیزی که کوان شاهد آن بود، یک شکل مشابه اولیه از یک شبکه عصبی بود - پیشروی برای پیشرفته‌ترین هوش مصنوعی امروزی، از جمله بسیار مورد بحث GPT چت با توانایی آن برای تولید محتوای نوشتاری در پاسخ به تقریباً هر دستوری. فناوری زیربنایی ChatGPT یک شبکه عصبی است.

همانطور که کوان و تیلور ایستاده بودند و کار ماشین را تماشا می کردند، آنها واقعاً نمی دانستند که چگونه این کار را انجام می دهد. پاسخ به مغز ماشین اسرارآمیز تیلور را می‌توان جایی در «نرون‌های آنالوگ»، در ارتباط‌های ایجاد شده توسط حافظه دستگاه آن و مهم‌تر از همه، در این واقعیت یافت که عملکرد خودکار آن واقعاً نمی‌توان به طور کامل توضیح داد. دهه ها طول می کشد تا این سیستم ها هدف خود را پیدا کنند و آن قدرت باز شود.

اصطلاح شبکه عصبی طیف گسترده ای از سیستم ها را در بر می گیرد، اما به صورت مرکزی، به گفته IBMاین "شبکه های عصبی - همچنین به عنوان شبکه های عصبی مصنوعی (ANN) یا شبکه های عصبی شبیه سازی شده (SNN) شناخته می شوند - زیر مجموعه ای از یادگیری ماشین هستند و در قلب الگوریتم های یادگیری عمیق قرار دارند. نکته مهم این است که خود این اصطلاح و شکل و ساختار آنها از مغز انسان الهام گرفته شده است و از روشی که نورون های بیولوژیکی به یکدیگر سیگنال می دهند تقلید می کند.

ممکن است در مراحل اولیه شک و تردیدی در مورد ارزش آنها وجود داشته باشد، اما با گذشت سال ها، مدهای هوش مصنوعی به شدت به سمت شبکه های عصبی حرکت کرده است. اکنون اغلب تصور می شود که آنها آینده هوش مصنوعی هستند. آنها پیامدهای بزرگی برای ما و معنای انسان بودن دارند. ما شنیده ایم انعکاس این نگرانی ها اخیرا با فراخوان هایی برای توقف پیشرفت های جدید هوش مصنوعی برای یک دوره شش ماهه برای اطمینان از اطمینان از پیامدهای آنها.


گرافیک اشتراک درونی


مطمئناً اشتباه است که شبکه عصبی را صرفاً به عنوان ابزارهای جدید براق و چشم نواز رد کنیم. آنها در حال حاضر به خوبی در زندگی ما جا افتاده اند. برخی در عملی بودن خود قدرتمند هستند. در سال 1989، تیمی به رهبری Yann LeCun در AT&T Bell Laboratories از تکنیک های پس انتشار برای آموزش سیستمی استفاده کردند. شناسایی کدهای پستی دست نویس. اخیر اعلامیه توسط مایکروسافت این که جستجوهای Bing توسط هوش مصنوعی تقویت می‌شوند، و آن را به عنوان «کمپیلوت برای وب» شما تبدیل می‌کند، نشان می‌دهد که چگونه چیزهایی که ما کشف می‌کنیم و چگونه آنها را درک می‌کنیم محصول این نوع اتوماسیون هستند.

استفاده از داده های گسترده برای یافتن الگوها، هوش مصنوعی را می توان به طور مشابه برای انجام کارهایی مانند تشخیص تصویر با سرعت آموزش داد - و در نتیجه آنها را در تشخیص چهره، برای مثال. این توانایی در شناسایی الگوها منجر به کاربردهای بسیار دیگری از جمله پیش بینی بازارهای سهام.

شبکه های عصبی نحوه تفسیر و ارتباط ما را نیز تغییر می دهند. توسعه یافته توسط با عنوان جالب تیم مغز گوگل, گوگل ترجمه یکی دیگر از کاربردهای برجسته شبکه عصبی است.

شما نمی خواهید با یک شطرنج یا شوگی بازی کنید. درک آنها از قوانین و یادآوری استراتژی ها و تمام حرکات ضبط شده به این معنی است که آنها در بازی ها فوق العاده خوب هستند (اگرچه به نظر می رسد ChatGPT مبارزه با وردل). سیستم‌هایی که بازیکنان Go انسان را آزار می‌دهند (Go یک بازی رومیزی استراتژیک بسیار پیچیده است) و استادان بزرگ شطرنج، ساخته شده از شبکه های عصبی.

اما دامنه آنها بسیار فراتر از این موارد است و همچنان در حال گسترش است. جستجوی پتنت‌هایی که فقط به ذکر عبارت دقیق «شبکه‌های عصبی» محدود می‌شود، 135,828 نتیجه به دست می‌دهد. با این گسترش سریع و مداوم، شانس اینکه بتوانیم تأثیر هوش مصنوعی را به طور کامل توضیح دهیم، ممکن است کمتر شود. اینها سوالاتی است که من در تحقیق خود بررسی کرده ام و کتاب جدید من در مورد تفکر الگوریتمی.

لایه‌های مرموز «ناشناختنی»

نگاهی به تاریخچه شبکه های عصبی به ما چیز مهمی در مورد تصمیمات خودکاری که حال ما را تعریف می کنند یا تصمیماتی که احتمالاً تأثیر عمیق تری در آینده خواهند داشت، به ما می گوید. حضور آنها همچنین به ما می گوید که ما احتمالاً تصمیمات و تأثیرات هوش مصنوعی را در طول زمان حتی کمتر درک می کنیم. این سیستم‌ها صرفاً جعبه‌های سیاه نیستند، آنها فقط قطعات مخفی یک سیستم نیستند که قابل مشاهده یا درک نباشند.

این چیزی متفاوت است، چیزی که ریشه در اهداف و طراحی خود این سیستم ها دارد. یک تعقیب طولانی مدت برای غیرقابل توضیح وجود دارد. هرچه غیرشفاف تر باشد، سیستم معتبرتر و پیشرفته تر تصور می شود. این فقط در مورد پیچیده تر شدن سیستم ها یا محدود کردن دسترسی به کنترل مالکیت معنوی نیست (اگرچه اینها بخشی از آن هستند). در عوض می‌توان گفت که اخلاقی که آنها را هدایت می‌کند، علاقه خاصی و نهفته به «ناشناختن» دارد. این رمز و راز حتی در قالب و گفتمان شبکه عصبی رمزگذاری شده است. آنها با لایه های عمیق انباشته شده هستند - از این رو عبارت یادگیری عمیق - و در درون آن اعماق "لایه های پنهان" حتی اسرارآمیزتر هستند. اسرار این سیستم ها در اعماق سطح هستند.

این احتمال وجود دارد که هر چه تأثیر هوش مصنوعی در زندگی ما بیشتر باشد، کمتر متوجه چگونگی و چرایی آن خواهیم شد. امروزه فشار قوی برای هوش مصنوعی وجود دارد که قابل توضیح است. ما می خواهیم بدانیم چگونه کار می کند و چگونه به تصمیمات و نتایج می رسد. اتحادیه اروپا آنقدر نگران «خطرات غیرقابل قبول» و حتی کاربردهای «خطرناک» است که در حال حاضر در حال پیشرفت است. قانون جدید هوش مصنوعی در نظر گرفته شده برای تعیین یک "استاندارد جهانی" برای "توسعه هوش مصنوعی ایمن، قابل اعتماد و اخلاقی".

آن قوانین جدید مبتنی بر نیاز به توضیح است، خواستار آن است برای سیستم‌های هوش مصنوعی پرخطر، الزامات داده‌های با کیفیت بالا، مستندات و قابلیت ردیابی، شفافیت، نظارت انسانی، دقت و استحکام، برای کاهش خطرات ناشی از هوش مصنوعی برای حقوق اساسی و ایمنی به شدت ضروری است. این فقط در مورد چیزهایی مانند اتومبیل های خودران نیست (اگرچه سیستم هایی که ایمنی را تضمین می کنند در رده هوش مصنوعی پرخطر اتحادیه اروپا قرار می گیرند)، بلکه یک نگرانی است که سیستم هایی در آینده ظهور کنند که پیامدهایی برای حقوق بشر داشته باشند.

این بخشی از فراخوان های گسترده تر برای شفافیت در هوش مصنوعی است تا بتوان فعالیت های آن را بررسی، ممیزی و ارزیابی کرد. مثال دیگر می تواند انجمن سلطنتی باشد خلاصه سیاست در مورد هوش مصنوعی قابل توضیح که در آن آنها اشاره می کنند که "مباحث سیاست در سراسر جهان به طور فزاینده ای نیاز به نوعی توضیح هوش مصنوعی را به عنوان بخشی از تلاش برای گنجاندن اصول اخلاقی در طراحی و استقرار سیستم های مجهز به هوش مصنوعی دارد."

اما داستان شبکه‌های عصبی به ما می‌گوید که احتمالاً در آینده به جای نزدیک‌تر شدن به آن، از آن هدف دورتر خواهیم شد.

با الهام از مغز انسان

این شبکه‌های عصبی ممکن است سیستم‌های پیچیده‌ای باشند، اما برخی از اصول اصلی را دارند. آنها با الهام از مغز انسان به دنبال کپی یا شبیه سازی اشکال تفکر بیولوژیکی و انسانی هستند. از نظر ساختار و طراحی به عنوان آی بی ام نیز توضیح می دهد، متشکل از "لایه های گره، حاوی یک لایه ورودی، یک یا چند لایه پنهان و یک لایه خروجی" است. در این، "هر گره، یا نورون مصنوعی، به دیگری متصل می شود". از آنجایی که آنها برای ایجاد خروجی ها به ورودی ها و اطلاعات نیاز دارند، "به داده های آموزشی برای یادگیری و بهبود دقت خود در طول زمان متکی هستند". این جزئیات فنی مهم است، اما تمایل به مدل سازی این سیستم ها بر اساس پیچیدگی های مغز انسان نیز اهمیت دارد.

درک جاه طلبی پشت این سیستم ها برای درک اینکه این جزئیات فنی در عمل چه معنایی دارند، حیاتی است. در یک مصاحبه 1993تووو کوهونن، دانشمند شبکه عصبی، به این نتیجه رسید که یک سیستم "خودسازمانده" "رویای من است" که "چیزی شبیه به آنچه که سیستم عصبی ما به طور غریزی انجام می دهد" عمل می کند. به عنوان مثال، کوهونن تصویر کرد که چگونه یک سیستم "خودسازماندهی"، سیستمی که خود را نظارت و مدیریت می کند، "می تواند به عنوان یک پانل نظارت برای هر ماشینی ... در هر هواپیما، هواپیمای جت، یا هر نیروگاه هسته ای یا هر نیروگاه هسته ای استفاده شود. ماشین". او فکر می کرد که این بدان معنی است که در آینده "شما می توانید بلافاصله ببینید که سیستم در چه شرایطی است".

هدف اصلی این بود که سیستمی داشته باشیم که بتواند با محیط اطراف خود سازگار شود. این می تواند آنی و مستقل باشد و به سبک سیستم عصبی عمل کند. این رویا بود، داشتن سیستم‌هایی که بتوانند بدون نیاز به دخالت زیاد انسان، خودشان را مدیریت کنند. پیچیدگی ها و ناشناخته های مغز، سیستم عصبی و دنیای واقعی به زودی به توسعه و طراحی شبکه های عصبی می رسند.

"چیزی در مورد آن"

اما با بازگشت به سال 1956 و آن ماشین یادگیری عجیب، این رویکرد عملی که تیلور در هنگام ساخت آن اتخاذ کرده بود، بلافاصله توجه کوان را به خود جلب کرد. او به وضوح روی مجموعه قطعات و قطعات عرق ریخته بود. تیلور، کوان مشاهده کرد در طی مصاحبه ای از طرف خودش در داستان این سیستم ها، "این کار را به صورت تئوری انجام نداده و آن را روی رایانه انجام نداده است". در عوض، با ابزارهایی که در دست داشت، "در واقع سخت افزار را ساخت". این یک چیز مادی بود، ترکیبی از قطعات، شاید حتی یک ابزار. و کوان خاطرنشان می کند که «همه با مدارهای آنالوگ انجام شد»، «چندین سال ساخت آن و بازی با آن به تیلور نیاز داشت». یک مورد آزمون و خطا.

قابل درک است که کوان می خواست با آنچه می دید کنار بیاید. او سعی کرد از تیلور بخواهد که این ماشین یادگیری را برای او توضیح دهد. شفاف سازی نشد. کوان نتوانست تیلور را وادار کند که برای او توضیح دهد که این کار چگونه کار می کند. نورون های آنالوگ یک راز باقی ماندند. کاوان فکر می‌کرد مشکل شگفت‌انگیزتر این بود که تیلور «واقعاً خودش نمی‌دانست که چه خبر است». این فقط یک قطع ارتباط لحظه ای بین این دو دانشمند با تخصص های مختلف نبود، بلکه بیش از این بود.

در مصاحبه از اواسط دهه 1990با فکر کردن به ماشین تیلور، کوان فاش کرد که "تا به امروز در مقالات منتشر شده شما نمی توانید کاملاً بفهمید که چگونه کار می کند". این نتیجه گیری نشان می دهد که چگونه ناشناخته عمیقاً در شبکه های عصبی جاسازی شده است. غیرقابل توضیح بودن این سیستم های عصبی حتی از مراحل اساسی و رشدی که قدمت آن به حدود هفت دهه قبل می رسد نیز وجود داشته است.

این رمز و راز امروزه باقی مانده است و می توان آن را در اشکال پیشرفته هوش مصنوعی یافت. غیرقابل درک بودن عملکرد تداعی های ایجاد شده توسط ماشین تیلور، کوان را به این فکر واداشت که آیا "چیزی در مورد آن وجود دارد".

ریشه های دراز و درهم

کوان به دیدار کوتاه خود با تیلور اشاره کرد که چند سال بعد از او در مورد استقبال از کار خود پرسیدند. کاوان می اندیشید که در دهه 1960 مردم «در دیدن نقطه نظرات شبکه عصبی آنالوگ کمی کند بودند». کوان به یاد می‌آورد که این در حالی بود که کار تیلور در دهه 1950 روی «حافظه انجمنی» بر اساس «نرون‌های آنالوگ» بود. کارشناس سیستم های عصبی برنده جایزه نوبل، لئون ان. کوپر، نتیجه گرفت که تحولات پیرامون کاربرد مدل مغز در دهه 1960، "در میان اسرار عمیق" در نظر گرفته شد. به دلیل این عدم قطعیت، شک و تردیدی در مورد آنچه که یک شبکه عصبی ممکن است به دست آورد وجود داشت. اما همه چیز کم کم شروع به تغییر کرد.

حدود 30 سال پیش، والتر جی. فریمن، عصب شناس، که از "قابل توجهطیف وسیعی از برنامه‌های کاربردی که برای شبکه‌های عصبی پیدا شده بود، قبلاً در مورد این واقعیت اظهار نظر می‌کرد که او آنها را «نوعی اساساً جدید ماشین» نمی‌دانست. آنها یک سوختن آهسته بودند، با این که تکنولوژی ابتدا آمد و سپس کاربردهای بعدی برای آن یافت شد. این کار زمان برد. در واقع، برای یافتن ریشه‌های فناوری شبکه‌های عصبی، ممکن است حتی بیشتر از بازدید کوان از ماشین مرموز تیلور برگردیم.

جیمز اندرسون دانشمند شبکه عصبی و ادوارد روزنفلد روزنامه نگار علمی توجه داشته باشید پیشینه شبکه های عصبی به دهه 1940 و برخی از تلاش های اولیه برای "درک سیستم عصبی انسان و ساختن سیستم های مصنوعی که حداقل اندکی مانند ما عمل می کنند" برمی گردد. و بنابراین، در دهه 1940، اسرار سیستم عصبی انسان نیز به اسرار تفکر محاسباتی و هوش مصنوعی تبدیل شد.

خلاصه این داستان طولانی، نویسنده علوم کامپیوتر لری هاردستی اشاره کرده است یادگیری عمیق در قالب شبکه های عصبی "بیش از 70 سال است که مد شده و از مد افتاده است". او اضافه می‌کند که این شبکه‌های عصبی برای اولین بار در سال 1944 توسط وارن مک‌کالوچ و والتر پیتس، دو محقق دانشگاه شیکاگو که در سال 1952 به‌عنوان اعضای موسس چیزی که گاهی اوقات اولین بخش علوم شناختی نامیده می‌شود، به MIT نقل مکان کردند، پیشنهاد شدند.

در جای دیگر 1943 گاهی اوقات تاریخ داده شده به عنوان اولین سال برای این فناوری است. در هر صورت، تقریباً 70 سال است که گزارش‌ها نشان می‌دهند که شبکه‌های عصبی وارد و خارج از مد شده‌اند، که اغلب نادیده گرفته می‌شوند، اما گاهی اوقات تسخیر می‌شوند و به سمت برنامه‌ها و بحث‌های اصلی تر حرکت می‌کنند. عدم قطعیت ادامه داشت. آن توسعه دهندگان اولیه اغلب اهمیت تحقیقات خود را نادیده گرفته شده توصیف می کنند، تا زمانی که اغلب سال ها و گاهی دهه ها بعد هدف خود را پیدا کرد.

با حرکت از دهه 1960 به اواخر دهه 1970، می توانیم داستان های بیشتری از ویژگی های ناشناخته این سیستم ها پیدا کنیم. حتی در آن زمان، پس از سه دهه، شبکه عصبی هنوز هدف را پیدا می کرد. دیوید روملهارت، که پیشینه روانشناسی داشت و یکی از نویسندگان مجموعه ای از کتاب های منتشر شده در سال 1986 بود که بعدها دوباره توجه را به سمت شبکه های عصبی جلب کرد، متوجه شد که در توسعه شبکه های عصبی همکاری می کند. با همکارش جی مک کللند.

آنها علاوه بر همکار بودن، اخیراً در کنفرانسی در مینه‌سوتا با یکدیگر روبرو شده بودند، جایی که صحبت روملهارت در مورد "درک داستان" بحث‌هایی را در میان نمایندگان برانگیخت.

پس از آن کنفرانس، مک کللند با فکر در مورد چگونگی توسعه یک شبکه عصبی که ممکن است مدل‌ها را برای تعامل بیشتر ترکیب کند، بازگشت. آنچه در اینجا اهمیت دارد این است خاطره روملهارت از "ساعت ها و ساعت ها و ساعت ها سرهم بندی کردن در کامپیوتر".

ما نشستیم و همه این کارها را در کامپیوتر انجام دادیم و این مدل های کامپیوتری را ساختیم و فقط آنها را درک نکردیم. ما نفهمیدیم که چرا کار می‌کنند یا چرا کار نمی‌کنند یا چه انتقادی درباره آنها وجود دارد.

روملهارت نیز مانند تیلور خود را در حال دستکاری با سیستم یافت. آنها همچنین یک شبکه عصبی کارآمد ایجاد کردند و مهمتر از همه، آنها همچنین مطمئن نبودند که چگونه یا چرا به روشی که انجام می‌داد کار می‌کند، ظاهراً از داده‌ها یاد می‌گرفتند و تداعی‌هایی را پیدا می‌کردند.

تقلید از مغز - لایه به لایه

ممکن است قبلاً متوجه شده باشید که هنگام بحث در مورد منشاء شبکه های عصبی، تصویر مغز و پیچیدگی هایی که این شبکه ها برمی انگیزد هرگز دور از دسترس نیست. مغز انسان به عنوان نوعی الگو برای این سیستم ها عمل می کند. در مراحل اولیه، به ویژه، مغز - هنوز یکی از ناشناخته‌های بزرگ - الگویی برای نحوه عملکرد شبکه عصبی شد.

بنابراین این سیستم‌های آزمایشی جدید بر اساس چیزی که عملکرد آن تا حد زیادی ناشناخته بود، مدل‌سازی شدند. مهندس محاسبات عصبی کارور مید افشاگرانه صحبت کرده است از مفهوم "کوه یخ شناختی" که برای او جذابیت خاصی پیدا کرده بود. این تنها نوک کوه یخ آگاهی است که ما از آن آگاه هستیم و قابل مشاهده است. مقیاس و شکل بقیه در زیر سطح ناشناخته باقی مانده است.

در 1998، جیمز اندرسوناو که مدتی روی شبکه‌های عصبی کار می‌کرد، خاطرنشان کرد که وقتی نوبت به تحقیق روی مغز می‌رسد، «به نظر می‌رسد که کشف اصلی ما آگاهی از این است که واقعاً نمی‌دانیم چه اتفاقی در حال رخ دادن است».

در یک حساب تفصیلی در فایننشال تایمز در سال 2018ریچارد واترز، روزنامه‌نگار فناوری اشاره کرد که چگونه شبکه‌های عصبی «بر اساس نظریه‌ای در مورد نحوه عملکرد مغز انسان مدل‌سازی می‌شوند و داده‌ها را از لایه‌های نورون‌های مصنوعی منتقل می‌کنند تا زمانی که یک الگوی قابل شناسایی ظاهر شود». واترز پیشنهاد کرد که این مشکلی را ایجاد می کند، زیرا "برخلاف مدارهای منطقی به کار رفته در یک برنامه نرم افزاری سنتی، هیچ راهی برای ردیابی این فرآیند برای شناسایی دقیق اینکه چرا یک کامپیوتر به یک پاسخ خاص می رسد وجود ندارد". نتیجه گیری واترز این است که این نتایج را نمی توان حذف کرد. استفاده از این نوع مدل از مغز، که داده‌ها را از لایه‌های زیادی می‌گیرد، به این معنی است که پاسخ به راحتی قابل ردیابی نیست. چند لایه بودن بخش خوبی از دلیل این امر است.

سختی همچنین مشاهده شد که این سیستم‌ها "به طور آزاد بر روی مغز انسان مدل‌سازی شده‌اند". این اشتیاق را برای ایجاد پیچیدگی پردازشی بیشتر به منظور تلاش برای تطابق با مغز به ارمغان می آورد. نتیجه این هدف یک شبکه عصبی است که "شامل هزاران یا حتی میلیون ها گره پردازشی ساده است که به طور متراکم به هم متصل هستند". داده ها از طریق این گره ها تنها در یک جهت حرکت می کنند. هاردستی مشاهده کرد که یک گره منفرد ممکن است به چندین گره در لایه زیر آن متصل شود، که از آنها داده ها را دریافت می کند، و چندین گره در لایه بالای آن، که داده ها را به آنها ارسال می کند.

مدل‌های مغز انسان بخشی از نحوه طراحی و طراحی این شبکه‌های عصبی از ابتدا بود. این به ویژه زمانی جالب است که در نظر بگیریم که مغز خود راز آن زمان بود (و از بسیاری جهات هنوز هم هست).

"اقتباس کل بازی است"

دانشمندانی مانند مید و کوهونن می خواستند سیستمی بسازند که بتواند واقعاً با دنیایی که در آن قرار دارد سازگار شود. به شرایط خود پاسخ خواهد داد. مید واضح بود که ارزش شبکه‌های عصبی این است که می‌توانند این نوع سازگاری را تسهیل کنند. در آن زمان و با تأمل در این جاه طلبی، مید اضافه کرد که تولید اقتباس "کل بازی است". او فکر می‌کرد که این انطباق «به دلیل ماهیت دنیای واقعی» مورد نیاز است، که به این نتیجه رسید که «برای انجام کاری مطلق بسیار متغیر است».

این مشکل باید در نظر گرفته می‌شد، به‌ویژه که او فکر می‌کرد، این چیزی بود که «سیستم عصبی مدت‌ها پیش متوجه آن شده بود». این مبتکران نه تنها با تصویری از مغز و ناشناخته‌های آن کار می‌کردند، بلکه آن را با چشم‌اندازی از «دنیای واقعی» و عدم قطعیت‌ها، ناشناخته‌ها و تنوعی که این امر به همراه دارد ترکیب می‌کردند. مید فکر می کرد که سیستم ها باید بتوانند پاسخ دهند و با شرایط سازگار شوند بدون دستورالعمل

تقریباً در همان زمان در دهه 1990، استفان گروسبرگ - متخصص در سیستم های شناختی که در ریاضیات، روانشناسی و مهندسی زیست پزشکی کار می کند - همچنین استدلال کرد که انطباق گام مهمی در بلندمدت خواهد بود. گروسبرگ، زمانی که روی مدل‌سازی شبکه‌های عصبی کار می‌کرد، با خود فکر می‌کرد که همه چیز درباره این است که چگونه سیستم‌های اندازه‌گیری و کنترل بیولوژیکی برای تطبیق سریع و پایدار در زمان واقعی با دنیایی که به سرعت در حال نوسان است، طراحی شده‌اند. همانطور که قبلاً با "رویای" کوهونن از یک سیستم "خودسازمانده" دیدیم، مفهوم "دنیای واقعی" به زمینه ای تبدیل می شود که در آن پاسخ و انطباق در این سیستم ها کدگذاری می شود. نحوه درک و تصور آن دنیای واقعی بدون شک نحوه طراحی این سیستم ها را برای انطباق شکل می دهد.

لایه های پنهان

با تکثیر لایه ها، یادگیری عمیق اعماق جدیدی را ایجاد کرد. شبکه عصبی با استفاده از داده های آموزشی آموزش داده می شود که هاردستی توضیح داد، "به لایه پایینی - لایه ورودی - تغذیه می شود و از لایه های بعدی عبور می کند و به روش های پیچیده ای ضرب و جمع می شود تا در نهایت به لایه خروجی تبدیل شود." هرچه تعداد لایه ها بیشتر باشد، تبدیل بیشتر و فاصله ورودی تا خروجی بیشتر است. به عنوان مثال، هاردستی اضافه کرد که توسعه واحدهای پردازش گرافیکی (GPU) در بازی‌ها، شبکه‌های یک لایه دهه 1960 و شبکه‌های دو تا سه لایه دهه 1980 را قادر ساخت تا به ده، 15 یا حتی 50 تبدیل شوند. شبکه های لایه امروزی».

شبکه های عصبی عمیق تر می شوند. در واقع، به گفته هاردستی، این افزودن لایه‌ها همان چیزی است که «عمیق» در «یادگیری عمیق» به آن اشاره دارد. او پیشنهاد می‌کند که این مهم است، زیرا «در حال حاضر، یادگیری عمیق مسئول بهترین سیستم‌ها در تقریباً هر زمینه‌ای از تحقیقات هوش مصنوعی است».

اما راز عمیق تر می شود. همانطور که لایه های شبکه های عصبی انباشته شده اند، پیچیدگی آنها افزایش یافته است. همچنین منجر به رشد لایه‌های پنهان در این اعماق شده است. بحث در مورد تعداد بهینه لایه های پنهان در یک شبکه عصبی ادامه دارد. نظریه پرداز رسانه بئاتریس فازی نوشته است به دلیل نحوه عملکرد یک شبکه عصبی عمیق، با تکیه بر لایه‌های عصبی پنهان که بین اولین لایه نورون‌ها (لایه ورودی) و آخرین لایه (لایه خروجی) قرار گرفته‌اند، تکنیک‌های یادگیری عمیق اغلب حتی برای افراد غیرشفاف یا ناخوانا هستند. برنامه نویسانی که در ابتدا آنها را راه اندازی کردند.

با افزایش لایه‌ها (از جمله آن لایه‌های پنهان)، حتی کمتر قابل توضیح می‌شوند - حتی، همانطور که مشخص است، دوباره برای کسانی که آنها را ایجاد می‌کنند. کاترین هیلز، متفکر برجسته و میان رشته‌ای رسانه‌های جدید نیز به نکته مشابهی اشاره می‌کند همچنین اشاره کرد محدودیت‌هایی برای «چقدر می‌توانیم درباره سیستم بدانیم، نتیجه مرتبط با «لایه پنهان» در شبکه عصبی و الگوریتم‌های یادگیری عمیق وجود دارد.

دنبال چیزهای غیرقابل توضیح

روی هم رفته، این تحولات طولانی بخشی از آنچه جامعه شناس فناوری است تاینا بوچر «مسئله ناشناخته» نامیده است. هری کالینز در حال گسترش تحقیقات تأثیرگذار خود در مورد دانش علمی در زمینه هوش مصنوعی است اشاره کرده است که هدف شبکه‌های عصبی این است که ممکن است در ابتدا توسط یک انسان تولید شوند، اما «به محض اینکه برنامه نوشته شود، زندگی خودش را می‌گذراند. بدون تلاش زیاد، نحوه عملکرد برنامه دقیقاً می تواند مرموز باقی بماند. این بازتاب آن رویاهای دیرینه در مورد یک سیستم خودسازمانده است.

من به این اضافه می‌کنم که ناشناخته‌ها و شاید حتی ناشناخته‌ها به‌عنوان بخش اساسی این سیستم‌ها از همان مراحل اولیه دنبال شده‌اند. این احتمال وجود دارد که هر چه تأثیر هوش مصنوعی در زندگی ما بیشتر باشد، کمتر متوجه چگونگی و چرایی آن خواهیم شد.

اما امروزه برای بسیاری از آنها خوشایند نیست. ما می خواهیم بدانیم هوش مصنوعی چگونه کار می کند و چگونه به تصمیمات و نتایجی که بر ما تأثیر می گذارد می رسد. همانطور که پیشرفت‌های هوش مصنوعی به شکل‌گیری دانش و درک ما از جهان، آنچه کشف می‌کنیم، نحوه رفتار با ما، نحوه یادگیری، مصرف و تعامل ما ادامه می‌دهد، این انگیزه برای درک بیشتر می‌شود. وقتی صحبت از هوش مصنوعی قابل توضیح و شفاف به میان می آید، داستان شبکه های عصبی به ما می گوید که احتمالاً در آینده به جای نزدیک شدن به آن، از آن هدف دورتر خواهیم شد.

دیوید بیراستاد جامعه شناسی دانشگاه یورک

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.