Новости
2 сентября

Исследование: алгоритмы тиктока показывают мальчикам-подросткам контент с насилием

Саша Подольникова
Саша Подольникова
Авторка «Горящей избы»
Изображение

В тиктоке мальчикам-подросткам чаще попадается контент, содержащий насилие, порнографию и продвигающий мизогинные взгляды. Об этом пишет BBC со ссылкой на бывших сотрудников тиктока.

🔥 Телеграм-канал «Горящей избы» поможет не пропускать важные новости, разборы трендов и смешные тесты по вторникам и пятницам!
Подписаться

Этой инсайдерской информацией с изданием поделился бывший аналитик по безопасности пользователей тикток Эндрю Каунг. Он работал в компании с 2020 по 2022 год. Вместе с коллегой Каунг изучил, что именно алгоритмы соцсети рекомендуют пользователям, включая подростков. Выяснилось, что мальчики-подростки часто видят в своих лентах ролики с насилием, порнографическими сюжетами и видео, пропагандирующие мизогинию. Девочкам того же возраста тикток предлагал совсем другой контент на основе их интересов.

Соцсети, в числе которых тикток, с помощью искусственного интеллекта удаляют вредоносные публикации или помечают их как требующие внимание. В дальнейшем помеченные публикации лично просматривают модераторы. В этом, по словам Эндрю Каунга, и заключается проблема. ИИ просто не способен идентифицировать весь опасный контент.

«Все видео, которые не были помечены ИИ как опасные, или те, о которых сообщали пользователи, проверялись модераторами вручную только после достижения порога в 10 тысяч просмотров. Значит, этот контент могли видеть совсем юные пользователи. Большинство крупных соцсетей разрешает регистрироваться людям от 13 лет».

Эндрю Каунг

бывший аналитик по безопасности пользователей тикток, BBC

До перехода в тикток Эндрю Каунг работал аналитиком в Meta*. Он рассказал, что здесь платформа действительно удаляла опасный контент и помечала его для модерации, но в этом слишком полагалась на сознательность пользователей.

Работая в Meta* и тикток, Каунг рассказывал руководству о своих наблюдениях, но компании бездействовали, не желая тратить деньги на решение проблемы. Похожий опыт был и у других сотрудников крупных соцсетей, о котором они анонимно рассказали BBC. В результате дети и подростки продолжают видеть у себя в лентах неприемлемые публикации.

«Алгоритмы всех крупных социальных сетей рекомендовали детям вредный контент, даже если и непреднамеренно. Компании закрывают на это глаза и относятся к детям так же, как и ко взрослым».

Альмудена Лара

директор по разработке политики безопасности в интернете Ofcom, британском агентстве, регулирующем работу теле- и радиокомпаний, BBC

Тикток и Meta* заявили: они прилагают много усилий, чтобы подростки не сталкивались с контентом, продвигающим насилие, и привлекают к работе специалистов по безопасности, задействуя новейшие инструменты.

Однако на практике, пишет BBC, соцсети продолжают рекомендовать пользователю жестокий контент и после того, как он нажимает на кнопку «не интересует».

«„Топливо“ алгоритмов — вовлечение, независимо от того, является ли взаимодействие положительным или отрицательным. То есть если вы написали комментарий, что вам не нравится видео с насилием, или убрали случайно поставленный там лайк, вам всё равно будут подкидывать похожие ролики».

Эндрю Каунг

бывший аналитик по безопасности пользователей тикток, BBC

Эндрю Каунг подчёркивает: алгоритмы соцсетей далеки от чувствительности. Даже если мальчик-подросток не интересуется контентом с насилием, он всё равно будет видеть его, потому что им интересуются другие мальчики его возраста. «Если при регистрации в соцсети у этих мальчиков совпал хотя бы один интерес, алгоритму этого достаточно», — говорит Каунг. По его мнению, это также отчасти может объяснять, почему девочкам такой контент не показывают. Регистрируя аккаунт, большинство девочек указывает другие интересы, например музыку, поп-селебрити, макияж.

Каунг уверен: добиться каких-то положительных изменений в этой сфере будет сложно. Компаниям коммерчески невыгодно ограничивать себя в распространении опасного контента.

«Просить частную компанию, чей интерес состоит в том, чтобы продвигать свою продукцию, добровольно наложить на себя ограничения — всё равно что просить тигра не есть вас. Компании социальных сетей не уважают ваше мнение, если оно не приносит им деньги».

Эндрю Каунг

бывший аналитик по безопасности пользователей тикток, BBC

*Деятельность Meta Platforms Inc. и принадлежащих ей социальных сетей Facebook и Instagram запрещена на территории РФ.

Комментарии

Станьте первым, кто оставит комментарий