В тиктоке мальчикам-подросткам чаще попадается контент, содержащий насилие, порнографию и продвигающий мизогинные взгляды. Об этом пишет 'It stains your brain': How social media algorithms show violence to boys / BBC BBC со ссылкой на бывших сотрудников тиктока.
Этой инсайдерской информацией с изданием поделился бывший аналитик по безопасности пользователей тикток Эндрю Каунг. Он работал в компании с 2020 по 2022 год. Вместе с коллегой Каунг изучил, что именно алгоритмы соцсети рекомендуют пользователям, включая подростков. Выяснилось, что мальчики-подростки часто видят в своих лентах ролики с насилием, порнографическими сюжетами и видео, пропагандирующие мизогинию. Девочкам того же возраста тикток предлагал совсем другой контент на основе их интересов.
Соцсети, в числе которых тикток, с помощью искусственного интеллекта удаляют вредоносные публикации или помечают их как требующие внимание. В дальнейшем помеченные публикации лично просматривают модераторы. В этом, по словам Эндрю Каунга, и заключается проблема. ИИ просто не способен идентифицировать весь опасный контент.
«Все видео, которые не были помечены ИИ как опасные, или те, о которых сообщали пользователи, проверялись модераторами вручную только после достижения порога в 10 тысяч просмотров. Значит, этот контент могли видеть совсем юные пользователи. Большинство крупных соцсетей разрешает регистрироваться людям от 13 лет».
бывший аналитик по безопасности пользователей тикток, BBC 'It stains your brain': How social media algorithms show violence to boys / BBC
До перехода в тикток Эндрю Каунг работал аналитиком в Meta*. Он рассказал, что здесь платформа действительно удаляла опасный контент и помечала его для модерации, но в этом слишком полагалась 'It stains your brain': How social media algorithms show violence to boys / BBC на сознательность пользователей.
Работая в Meta* и тикток, Каунг рассказывал руководству о своих наблюдениях, но компании бездействовали, не желая тратить деньги на решение проблемы. Похожий опыт был и у других сотрудников крупных соцсетей, о котором они анонимно рассказали 'It stains your brain': How social media algorithms show violence to boys / BBC BBC. В результате дети и подростки продолжают видеть у себя в лентах неприемлемые публикации.
«Алгоритмы всех крупных социальных сетей рекомендовали детям вредный контент, даже если и непреднамеренно. Компании закрывают на это глаза и относятся к детям так же, как и ко взрослым».
директор по разработке политики безопасности в интернете Ofcom, британском агентстве, регулирующем работу теле- и радиокомпаний, BBC 'It stains your brain': How social media algorithms show violence to boys / BBC
Тикток и Meta* заявили 'It stains your brain': How social media algorithms show violence to boys / BBC : они прилагают много усилий, чтобы подростки не сталкивались с контентом, продвигающим насилие, и привлекают к работе специалистов по безопасности, задействуя новейшие инструменты.
Однако на практике, пишет 'It stains your brain': How social media algorithms show violence to boys / BBC BBC, соцсети продолжают рекомендовать пользователю жестокий контент и после того, как он нажимает на кнопку «не интересует».
«„Топливо“ алгоритмов — вовлечение, независимо от того, является ли взаимодействие положительным или отрицательным. То есть если вы написали комментарий, что вам не нравится видео с насилием, или убрали случайно поставленный там лайк, вам всё равно будут подкидывать похожие ролики».
бывший аналитик по безопасности пользователей тикток, BBC 'It stains your brain': How social media algorithms show violence to boys / BBC
Эндрю Каунг подчёркивает: алгоритмы соцсетей далеки от чувствительности. Даже если мальчик-подросток не интересуется контентом с насилием, он всё равно будет видеть его, потому что им интересуются другие мальчики его возраста. «Если при регистрации в соцсети у этих мальчиков совпал хотя бы один интерес, алгоритму этого достаточно», — говорит Каунг. По его мнению, это также отчасти может объяснять, почему девочкам такой контент не показывают. Регистрируя аккаунт, большинство девочек указывает другие интересы, например музыку, поп-селебрити, макияж.
Каунг уверен: добиться каких-то положительных изменений в этой сфере будет сложно. Компаниям коммерчески невыгодно ограничивать себя в распространении опасного контента.
«Просить частную компанию, чей интерес состоит в том, чтобы продвигать свою продукцию, добровольно наложить на себя ограничения — всё равно что просить тигра не есть вас. Компании социальных сетей не уважают ваше мнение, если оно не приносит им деньги».
бывший аналитик по безопасности пользователей тикток, BBC 'It stains your brain': How social media algorithms show violence to boys / BBC
*Деятельность Meta Platforms Inc. и принадлежащих ей социальных сетей Facebook и Instagram запрещена на территории РФ.