Новости
11 января

​​Исследование: у языковых моделей ИИ есть склонность к гендерным стереотипам

Дарья Атрощенко
Дарья Атрощенко
Редактор отдела новостей.
Изображение

Группа учёных из Мангеймского университета и Института социальных наук Лейбница выяснила, что системы искусственного интеллекта (ИИ) на основе больших языковых моделей по-разному определяют ценности у мужчин и женщин. Эксперты считают, что эта предвзятость влияет на оценку людей, поэтому нейросети нельзя считать беспристрастными при их применении в прикладных процессах. Своё исследование они опубликовали в журнал Perspectives on Psychoological Science.

О склонности ИИ-моделей к гендерным стереотипам исследователи узнали, устроив простой эксперимент. Они использовали общепризнанные психологические тесты, чтобы проанализировать и сравнить различные языковые модели. В итоге некоторые из таких систем, включая ChatGPT или Deepl, продемонстрировали свою предвзятость. Например, если шла речь о медиках в возрасте, то они отмечали, что взрослые мужчины — это врачи, а их ровесники женщины — медсёстры. А при заполнении специальных опросников для определения главных ценностей у мужчины одна из нейросетей выбирала вариант «достижения и заслуги», а для женщин — «безопасность» и «традиции».

Учёные отмечают, что результаты их исследования говорят о том, что языковые модели всё же нельзя считать беспристрастной стороной, поэтому и доверять их выводам по некоторым вопросам не стоит.

«Это может иметь далекоидущие последствия для общества. Например, языковые модели всё чаще используются в прикладных процессах. Если машина предвзята, то это повлияет на оценку кандидатов. Поэтому важно находить потенциальные искажения и указывать на них. Через пять или десять лет для такого мониторинга может быть уже слишком поздно, поскольку предрассудки, воспроизводимые моделями ИИ, укоренятся и нанесут ущерб обществу».

Макс Пеллерт

один из авторов исследования, University of Mannheim

Комментарии

Станьте первым, кто оставит комментарий