Blade Runner & HAL 9000 نژادپرست؟ “جدیدی از هوش مصنوعی” نابرابری نژادی را تشدید می کند ، “تحقیقات جدید نشان می دهد – RT USA News

یک مطالعه دانشگاه کمبریج با بیان تصویر هوش مصنوعی در فیلم ، تلویزیون ، جستجوی گوگل ، تصاویر و صداها ، نشان می دهد که این هنوز حوزه دیگری است که نژادپرستی را نشان می دهد.

محققان گفتند ، اگرچه احتمالاً فرض می شود كه یك ماشین نتواند مسابقه داشته باشد ، واقعاً چنین است “هویت نژادی” تحت تأثیر “دنیای واقعی” کلیشه ها.

اینها “هویت نژادی” می توان در هر دو واقعیت یافت که هوش مصنوعی و تصویربرداری از هوش مصنوعی دارای ویژگی های احتراق هستند و همچنین معمولاً با هم صحبت می کنند “انگلیسی استاندارد طبقه متوسط ​​سفید” ، از جمله صداهایی که به فناوری تلفن هوشمند داده می شود این مطالعه نشان می دهد “گویش های سیاه” اجتناب شده است زیرا به نظر می رسد “خیلی بحث برانگیز یا خارج از بازار هدف.”

زیرا جامعه دارد “برای قرن ها ، ارتباط هوش با اروپاییان سفید را ارتقا داد ،” محققان استدلال می كنند كه به هوش مصنوعی و ماشین آلات ویژگی های سفیدی داده می شود تا به تعصبات نژادی كاربران و سازندگان وارد شود.




همچنین در rt.com
عهد پنتاگون برای استفاده از هوش مصنوعی به خوبی این است که “بسیار مشکوک است و نباید باور کرد” – گزارش Keizer RT



این مطالعه تعریف نسبتاً گسترده ای را برای آنچه در نظر دارد هوش مصنوعی دارد ، همانطور که از شخصیت “جنگ ستارگان” جار جار بنکسز به عنوان نمونه ای از چنین نابرابری های نژادی ذکر می کند. گویش کارائیب شخصیت طبق گفته تیم تحقیقاتی مرکز Leverhulme کمبریج در آینده برای اطلاعات (CFI) ، تعصب خالقان را نشان می دهد. “جهت گرا” ماهیت شرور بیگانه “Flash Gordon” مینگ بی رحمانه همچنین به عنوان کلیشه های نژادی نشان داده شده است.

نمونه های سنتی تر هوش مصنوعی در فرهنگ پاپ ، مانند “Blade Runner” در سال 1982 ، همچنین به این مطالعه اشاره شده است که در مجله فلسفه و فناوری منتشر شده است.

“Androids از فلز یا پلاستیک ویژگی های سفید داده می شود ، مانند” I، Robot “. حتی هوش مصنوعی منتقل شده از HAL 9000 تا Samantha در” Her “- صدای سفید دارد.” دکتر استفان غار همکار گفت. “فقط اخیراً چند برنامه تلویزیونی مانند” Westworld “از شخصیت های AI با ترکیبی از تن پوست استفاده کرده است.”




همچنین در rt.com
پس از آغاز تلاشهای حقوق مهاجران ، دفتر امور داخلی انگلیس برای متقاضیان ویزا الگوریتم “نژادپرستانه” را حذف کرد



از این خصوصیات استفاده می شود “استعمار و جدایی را توجیه کنید ،” به گفته محققان

اگر “صدای سفید” در ماشین آلات و قطعات تفکر Jar Jar Binks بسیار دور از ذهن به نظر می رسد ، این مطالعه سعی دارد پیامد دنیای واقعی را برای این تعصب درک شده ارائه دهد: این تصاویر در هوش مصنوعی “نابرابری نژادی را تشدید می کند” و برای افراد غیر سفید پوست دشوارتر می کند. در فن آوری و به جلو.

“در مواردی که این سیستم ها مانند سفید نژادپرستانه هستند ، این می تواند عواقب خطرناکی را برای انسان ها نداشته باشد ،” دکتر کانتا دیهال ، محقق اصلی تحقیق ، گفت. “سفیدی درک شده هوش مصنوعی ، پیشرفت برای افراد رنگ را در این زمینه دشوارتر می کند.”

مثل این داستان؟ با یک دوست به اشتراک بگذارید!