اعتماد به Ai 7 20
 چت ربات‌های هوش مصنوعی در حال قدرتمندتر شدن هستند، اما چگونه می‌دانید که آنها به نفع شما هستند یا خیر؟ 

اگر از الکسا، سیستم هوش مصنوعی دستیار صوتی آمازون بپرسید که آیا آمازون یک انحصار است، پاسخ می دهد: گفتن نمیدونه. درست کردنش زیاد لازم نیست غول های فناوری دیگر را مورد انتقاد قرار دهید، اما در مورد تخلفات والدین شرکتی خود سکوت کرده است.

وقتی الکسا به این شکل پاسخ می دهد، واضح است که منافع توسعه دهنده خود را بر منافع شما ترجیح می دهد. با این حال، معمولاً مشخص نیست که یک سیستم هوش مصنوعی به چه کسی خدمات می دهد. برای جلوگیری از سوء استفاده توسط این سیستم ها، مردم باید یاد بگیرند که با شک و تردید به هوش مصنوعی نزدیک شوند. این بدان معناست که عمداً ورودی‌هایی را که به آن می‌دهید بسازید و به طور انتقادی در مورد خروجی آن فکر کنید.

نسل‌های جدیدتر مدل‌های هوش مصنوعی، با پاسخ‌های پیچیده‌تر و کوتاه‌ترشان، تشخیص اینکه چه کسی هنگام صحبت کردن سود می‌برد را سخت‌تر می‌کند. دستکاری شرکت های اینترنتی در آنچه می بینید برای تامین منافع خود چیز جدیدی نیست. نتایج جستجوی گوگل و فید فیسبوک شما هستند پر از ورودی های پولی. فیس بوک, TikTok و دیگران فیدهای شما را دستکاری می کنند تا زمانی را که در پلتفرم می گذرانید به حداکثر برسانند، که این به معنای بازدید بیشتر از تبلیغات است و رفاه شما را افزایش می دهد.

آنچه سیستم‌های هوش مصنوعی را از سایر خدمات اینترنتی متمایز می‌کند این است که چقدر تعاملی هستند و چگونه این تعاملات به طور فزاینده‌ای شبیه روابط می‌شوند. برای تصور هوش مصنوعی که سفرهایی را برای شما برنامه ریزی می کند، از طرف شما مذاکره می کند یا به عنوان درمانگر و مربی زندگی عمل می کند، نیازی به برون یابی زیادی از فناوری های امروزی نیست.


گرافیک اشتراک درونی


آنها احتمالاً 24 ساعته با شما هستند، شما را از نزدیک می شناسند و می توانند نیازهای شما را پیش بینی کنند. این نوع رابط مکالمه با شبکه گسترده خدمات و منابع در وب در محدوده قابلیت های هوش مصنوعی مولد موجود مانند ChatGPT است. آنها در مسیر تبدیل شدن هستند دستیارهای دیجیتال شخصی.

به عنوان یک کارشناس امنیت و دانشمند داده، ما بر این باوریم که افرادی که به این AI ها تکیه می کنند باید به طور ضمنی به آنها اعتماد کنند تا زندگی روزمره را طی کنند. این بدان معناست که آنها باید مطمئن شوند که هوش مصنوعی مخفیانه برای شخص دیگری کار نمی کند. در سرتاسر اینترنت، دستگاه‌ها و سرویس‌هایی که به نظر می‌رسد برای شما کار می‌کنند، قبلاً مخفیانه علیه شما کار می‌کنند. تلویزیون های هوشمند جاسوسی شما. برنامه های تلفن داده های خود را جمع آوری و بفروشید. بسیاری از برنامه ها و وب سایت ها شما را از طریق الگوهای تاریک دستکاری می کند، عناصر طراحی که عمداً بازدیدکنندگان وب سایت را گمراه، اجبار یا فریب می دهند. این هست نظارت سرمایه داریو هوش مصنوعی در حال شکل گیری است تا بخشی از آن باشد. هوش مصنوعی در سرمایه داری نظارتی ایفای نقش می کند، که به جاسوسی از شما برای کسب درآمد از شما خلاصه می شود.

در تاریکی

احتمالاً با هوش مصنوعی خیلی بدتر می شود. برای اینکه آن دستیار دیجیتال هوش مصنوعی واقعاً مفید باشد، باید واقعاً شما را بشناسد. بهتر از چیزی که گوشی شما شما را بشناسد. بهتر از جستجوی گوگل شما را می شناسد. شاید بهتر از این باشد که دوستان نزدیک، شرکای صمیمی و درمانگر شما را بشناسند.

دلیلی برای اعتماد به ابزارهای مولد هوش مصنوعی امروزی ندارید. را کنار بگذارید توهم، "حقایق" ساختگی که GPT و سایر مدل های زبان بزرگ تولید می کنند. ما انتظار داریم که با بهبود فناوری در چند سال آینده، تا حد زیادی پاکسازی شوند.

اما شما نمی دانید که هوش مصنوعی چگونه پیکربندی شده اند: چگونه آنها آموزش دیده اند، چه اطلاعاتی به آنها داده شده است، و چه دستورالعمل هایی به آنها دستور داده شده است که پیروی کنند. مثلا محققین قوانین مخفی را کشف کرد که بر رفتار چت بات مایکروسافت بینگ حاکم است. آنها تا حد زیادی خوش خیم هستند اما می توانند در هر زمان تغییر کنند.

پول درآوردن

بسیاری از این هوش مصنوعی ها با هزینه های هنگفت توسط برخی از بزرگترین انحصارهای فناوری ایجاد و آموزش داده می شوند. آنها برای استفاده رایگان یا با هزینه بسیار کم به مردم ارائه می شوند. این شرکت ها باید به نحوی از آنها درآمدزایی کنند. و مانند بقیه اینترنت، احتمالاً به نوعی شامل نظارت و دستکاری می شود.

تصور کنید از چت بات خود بخواهید برای تعطیلات بعدی شما برنامه ریزی کند. آیا شرکت هواپیمایی یا هتل زنجیره ای یا رستوران خاصی را به این دلیل انتخاب کرد که برای شما بهترین بود یا به این دلیل که سازنده آن از کسب و کارها رشوه دریافت کرد؟ مانند نتایج پولی در جستجوی Google، تبلیغات اخبار فید در فیس بوک و قرارهای پولی در جستارهای آمازون، این تأثیرات پولی احتمالاً در طول زمان پنهان تر می شوند.

اگر از چت بات خود اطلاعات سیاسی می خواهید، آیا نتایج به دلیل سیاست شرکت صاحب ربات چت منحرف شده است؟ یا نامزدی که بیشترین پول را پرداخت کرده است؟ یا حتی دیدگاه جمعیت شناختی افرادی که از داده های آنها در آموزش مدل استفاده شده است؟ آیا عامل هوش مصنوعی شما مخفیانه یک مامور دوگانه است؟ در حال حاضر هیچ راهی برای دانستن وجود ندارد.

طبق قانون قابل اعتماد است

ما معتقدیم مردم باید از این فناوری انتظار بیشتری داشته باشند و شرکت های فناوری و هوش مصنوعی می توانند قابل اعتمادتر شوند. پیشنهاد اتحادیه اروپا قانون هوش مصنوعی برخی گام‌های مهم را برمی‌دارد، که نیازمند شفافیت در مورد داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی، کاهش تعصب بالقوه، افشای خطرات قابل پیش‌بینی و گزارش‌دهی آزمایش‌های استاندارد صنعت است. اتحادیه اروپا در حال پیشبرد مقررات هوش مصنوعی است.

بیشتر هوش مصنوعی های موجود رعایت نکردن با این دستور نوظهور اروپا، و با وجود تحریک اخیر از نظر چاک شومر، رهبر اکثریت سنا، ایالات متحده از چنین مقرراتی بسیار عقب است.

هوش مصنوعی های آینده باید قابل اعتماد باشند. مگر اینکه و تا زمانی که دولت حمایت های قوی از مصرف کننده برای محصولات هوش مصنوعی ارائه نکند، مردم به تنهایی می توانند خطرات و سوگیری های بالقوه هوش مصنوعی را حدس بزنند و بدترین اثرات آنها را بر تجربیات مردم با آنها کاهش دهند.

بنابراین، هنگامی که یک توصیه سفر یا اطلاعات سیاسی از یک ابزار هوش مصنوعی دریافت می‌کنید، با همان چشم بدبینانه‌ای که در تبلیغات بیلبورد یا داوطلب کمپین استفاده می‌کنید، به آن نزدیک شوید. ابزار هوش مصنوعی با وجود همه جادوگری های تکنولوژیکی اش، ممکن است کمی بیشتر از یکسان باشد.گفتگو

درباره نویسنده

بروس اشنایر، مدرس کمکی در سیاست عمومی، مدرسه دانشکده هاروارد کنده و ناتان سندرز، وابسته، مرکز اینترنت و جامعه برکمن کلاین، دانشگاه هاروارد

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.