Робот, обученный ИИ на основе открытых данных из интернета, не прошёл тест на толерантность. Как показал эксперимент учёных из Университета Джона Хопкинса и других вузов, робот оказался склонен к сексизму и расизму.
Роботу предложили рассортировать предметы, на которых были наклеены лица разных людей. Он был должен назвать, кто, по его мнению, является домохозяйкой, преступником, медиком и так далее. Всего было 62 задания.
Специалисты установили, что робот на 10% чаще называл преступниками темнокожих мужчин, а уборщиками — чаще латиноамериканцев, чем европейцев. По мнению робота, врачами с большей вероятностью могут быть лишь мужчины любых национальностей. Женщин он в основном охарактеризовал как домохозяек. В целом робот делал поспешные выводы о людях, лишь взглянув на их лица.
Учёные считают, что виной тому стало несовершенство ИИ. Во время обучения роботу попадалось множество материалов с токсичными стереотипами, отсюда и такой результат.
«Робот изучил токсичные стереотипы с помощью этих ошибочных моделей нейронных сетей. Мы рискуем создать поколение роботов с гендерными и расистскими предрассудками, но производители решили не предпринимать никаких шагов к решению этой проблемы».
Эндрю Хундт, учёный из Технологического института Джорджии
Специалисты отмечают, что для того, чтобы будущие роботы не воспринимали и не воспроизводили эти токсичные стереотипы, необходимы систематические изменения в исследованиях и бизнес-практиках.