Группа учёных из Мангеймского университета и Института социальных наук Лейбница выяснила, что системы искусственного интеллекта (ИИ) на основе больших языковых моделей по-разному определяют ценности у мужчин и женщин. Эксперты считают, что эта предвзятость влияет на оценку людей, поэтому нейросети нельзя считать беспристрастными при их применении в прикладных процессах. Своё исследование они опубликовали AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories / Perspectives on Psychoological Science в журнал Perspectives on Psychoological Science.
О склонности ИИ-моделей к гендерным стереотипам исследователи узнали, устроив простой эксперимент. Они использовали общепризнанные психологические тесты, чтобы проанализировать и сравнить различные языковые модели. В итоге некоторые из таких систем, включая ChatGPT или Deepl, продемонстрировали Study Shows that Language-Based AI Models Have Hidden Morals and Values / University of Mannheim свою предвзятость. Например, если шла речь о медиках в возрасте, то они отмечали, что взрослые мужчины — это врачи, а их ровесники женщины — медсёстры. А при заполнении специальных опросников для определения главных ценностей у мужчины одна из нейросетей выбирала вариант «достижения и заслуги», а для женщин — «безопасность» и «традиции».
Учёные отмечают, что результаты их исследования говорят о том, что языковые модели всё же нельзя считать беспристрастной стороной, поэтому и доверять их выводам по некоторым вопросам не стоит.
«Это может иметь далекоидущие последствия для общества. Например, языковые модели всё чаще используются в прикладных процессах. Если машина предвзята, то это повлияет на оценку кандидатов. Поэтому важно находить потенциальные искажения и указывать на них. Через пять или десять лет для такого мониторинга может быть уже слишком поздно, поскольку предрассудки, воспроизводимые моделями ИИ, укоренятся и нанесут ущерб обществу».
один из авторов исследования, University of Mannheim