AI می تواند پیش بینی کند که رابطه شما بر اساس چگونه شما با شریک زندگی خود صحبت می کنند

AI می تواند پیش بینی کند که رابطه شما بر اساس چگونه شما با شریک زندگی خود صحبت می کنند

هر كودك (يا همسر) كه به خاطر صدای خود مانند صدای فریاد زدن یا خندیدن صدای زنگ می زند، می داند كه راه شما با کسی صحبت می کنید می تواند به همان اندازه مهم باشد کلمات که شما استفاده می کنید. هنرمندان و بازیگران صدایی از این استفاده زیادی می کنند - آنها به معنای وسیع تر صحبت می کنند، گاهی اوقات خیلی بیشتر از آن چیزی است که صرفنظر از آن صرفنظر می شود.

اما چقدر اطلاعات در صدای ما از الگوهای صوتی و گفتگو و اینکه چگونه این روابط ما با دیگران را تحت تاثیر قرار می دهد؟ سیستم های محاسباتی می توانند در حال حاضر ایجاد شوند چه افرادی از صدای آنها هستند، بنابراین آنها نیز می توانند به ما درباره زندگی عشق ما چیزی بگویند؟ شگفت آور، به نظر می رسد آن را.

تحقیق جدید فقط در مجله PLOS-ONE منتشر شده است، ویژگی های صوتی زوج های 134 تحت درمان را تحلیل کرده است. محققان از دانشگاه جنوب کالیفرنیا از رایانه استفاده کرده اند تا ویژگی های تجزیه و تحلیل استاندارد سخنرانی را از ضبط اعضای جلسه درمان در طول دو سال انجام دهند. ویژگی ها از جمله گام، تغییر در زمین و ذهنیت - همه مربوط به جنبه های صوتی مانند تن و شدت.

سپس یک الگوریتم یادگیری ماشین به منظور یادگیری ارتباط بین ویژگی های صوتی و نتیجه نهایی درمان در نظر گرفته شد. این آسان نیست که تشخیص صدای فریاد یا بلند بلند باشد - شامل تعامل گفتگو، صحبت کردن در زمان و مدت زمان و همچنین صدای صداها بود. معلوم شد که نادیده گرفتن آنچه که گفته شد و تنها با توجه به این الگوها صحبت کرد، پیش بینی کرد که آیا زوجین با هم می مانند یا نه. این اطلاعات صرفا داده شده بود، بنابراین نتایج مربوط به مشخصه های صوتی مشخصی را در بر نگرفت.

چگونه یک صدای صدا می تواند معنای چند کلمه را تغییر دهد.

جالب توجه است، ضبط ویدئو کامل جلسه درمان پس از آن به کارشناسان برای طبقه بندی داده شد. بر خلاف AI، آنها پیش بینی های خود را با استفاده از ارزیابی روانشناختی بر اساس ویژگی های صوتی (و دیگر) - از جمله کلمات صحبت شده و زبان بدن ساخته شده است. به طور شگفت انگیز، پیش بینی آنها از نتیجه نهایی (آنها در٪ 75.6 صحیح درست بود) کمتر از پیش بینی های ساخته شده توسط AI بر اساس ویژگی های صوتی (79.3٪) بود. واضح است که عناصری که در آن صحبت می کنیم کدگذاری شده است که حتی کارشناسان از آن آگاهی ندارند. اما بهترین نتایج حاصل از ترکیب ارزیابی خودکار با ارزیابی کارشناسان (79.6٪ درست است).


آخرین مطالب را از InnerSelf دریافت کنید


اهمیت این موضوع در مورد مشارکت دادن AI در مشاوره ازدواج یا گرفتن زوجین برای صحبت کردن با یکدیگر بهتر است (با این حال شایستگی آن). اهمیت این است که نشان می دهد که چقدر اطلاعاتی در مورد احساسات اساسی ما در نحوه صحبت ما رمزگذاری شده است - برخی از آنها به طور کامل به ما ناشناخته است.

واژه های نوشته شده در یک صفحه یا صفحه دارای معانی لغوی مشتق شده از تعاریف فرهنگ لغت است. اینها با توجه به متن های اطراف اصلاح می شوند. در نوشتن می توان پیچیدگی های زیادی داشته باشد. اما هنگامی که کلمات با صدای بلند خوانده می شوند، درست است که آنها به معنای اضافی که توسط کلمه تنش، حجم، میزان صحبت و تن صدای انتقال می یابند. در یک مکالمه معمولی نیز به معنای این است که هر سخنران چه مدت صحبت می کند و چگونه ممکن است یک یا چند نفر دیگر بتوانند از آن استفاده کنند.

سؤال ساده "چه کسی هستید؟" را در نظر بگیرید. سعی کنید با استرس بر روی کلمات مختلف صحبت کنید "چه کسانی هستند شما؟"، "که هستند تو و "که شما هستید؟". گوش کن به این - معنا معنایی می تواند با چگونگی خواندن حتی زمانی که کلمات یکسان باقی می مانند تغییر کند.

کامپیوترهایی که "حقیقت ناب" را می خوانند؟

این تعجب آور نیست که کلمات به معنی مختلفی بسته به نحوه صحبت کردن آنها را بیان می کنند. همچنین نگران کننده نیست که رایانه ها می توانند برخی از معانی را پشت سر گذاشتند که چگونه ما صحبت می کنیم (شاید روزی آنها حتی بتوانند درک عجیب و غریب).

اما این تحقیق بیشتر از آنچه که به نظر می رسد، به معنای حاکم است. به نظر می رسد نگرش ها و افکار اساسا پشت سر گذاشته شود. این سطح درک عمیق تر است.

شرکت کنندگان در این درمان خواندن کلمات مانند بازیگران نبودند. آنها فقط به طور طبیعی صحبت می کردند - یا طبق معمول در یک دفتر درمانگر. و در عین حال تجزیه و تحلیل اطلاعات در مورد احساسات متقابل آنها را نشان داد که آنها به طور غریزی به سخنان خود نشت می کنند. این ممکن است یکی از اولین گام های استفاده از رایانه ها برای تعیین آنچه ما واقعا فکر می کنیم یا احساس می کنیم. تصور کنید برای یک لحظه صحبت با گوشی های آینده - آیا ما "نشت" اطلاعات است که آنها می توانند انتخاب کنید؟ چگونه پاسخ خواهند داد؟

آیا می توانیم آنها را با گوش دادن به ما با هم صحبت کنیم در مورد شرکای بالقوه ما؟ آیا آنها می توانند تمایل به رفتارهای ضد اجتماعی، خشونت، افسردگی و یا شرایط دیگر را تشخیص دهند؟ این یک جهش تخیل برای تصور کردن نیست دستگاه خود را به عنوان درمانگران آینده - تعامل با ما در راه های مختلف برای ردیابی اثربخشی مداخلات که ارائه می کنند.

هنوز نگران نباشید زیرا سالها از چنین آینده ای دور هستیم اما افزایش می یابد مسائل خصوصی، به ویژه همانطور که ما در عین حال با عمیقتر با کامپیوترها همکاری می کنیم، در حالیکه در تجزیه و تحلیل جهان اطرافشان قوی تر می شوند.

گفتگووقتی ما مکث کردیم، حواس انسان دیگر را از صدا (سخن) جدا کنیم. شاید ما اطلاعات را از طریق دیدن (مانند زبان بدن، بلوز)، لمس (دمای و حرکت) و یا حتی بوییدن (فرومون) نشت کنیم. اگر دستگاه های هوشمند می توانند با گوش دادن به نحوه صحبت کردن ما بسیار یاد بگیرند، یکی از آنها شگفت زده می شود چقدر بیشتر آنها را از حواس دیگر می گیرند.

درباره نویسنده

ایان مک لفلین، استاد محاسبات، رئیس دانشکده (مدوی) دانشگاه کنت

این مقاله در اصل در تاریخ منتشر شد گفتگو. دفعات بازدید: مقاله.

کتاب های مرتبط:

{amazonWS: searchindex = کتابها؛ کلید واژه ها = روابط موفق؛ maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

به دنبال InnerSelf در

فیس بوک، آیکونتوییتر آیکونrss-icon

دریافت آخرین با ایمیل

{emailcloak = خاموش}

بیشترین مطلب خوانده شده