Инсайдеры: алгоритмы соцсетей намеренно продвигают токсичный контент ради прибыли и удержания внимания

Десятки бывших сотрудников Meta* и TikTok передали журналистам документы, которые рисуют картину, кардинально расходящуюся с публичными заявлениями компаний о безопасности.

Источник фото: ru.freepik.com

Социальные сети сознательно подогревают негатив, выяснили журналисты. Десятки бывших сотрудников Meta* (Facebook, Instagram) и TikTok передали внутренние документы, раскрывающие механизмы, работающие вопреки публичным обещаниям компаний о безопасности.

Рекомендательные алгоритмы, как следует из материалов, не анализируют смысл публикаций — для них каждый пост это числовой идентификатор. Система отслеживает лишь одно: как долго пользователь остается на контенте. Поскольку негативные эмоции удерживают внимание эффективнее, алгоритм делает вывод, что пользователю «нравится» именно токсичный материал. Один из внутренних документов Facebook* описывает эту логику как «путь, который максимизирует прибыль за счет благополучия аудитории».

История запуска Reels в Instagram* особенно показательна. Данные внутренних проверок показали, что комментарии там содержали травлю на 75% чаще, чем в обычной ленте, ненависть по признаку группы — на 19% чаще, а призывы к насилию — на 7% чаще. Пока команда безопасности просила выделить специалистов по защите детей, на развитие Reels компания наняла 700 человек.

В TikTok система приоритизации жалоб, по словам бывших сотрудников, отдает предпочтение политикам перед реальными жертвами. В одном из случаев политик, которого сравнили с курицей, получил более срочный статус обработки, чем две несовершеннолетние девушки, подвергшиеся преследованию и распространению интимных фото. Причина проста: компания боится регуляторов больше, чем заботится о безопасности пользователей.

Британские аналитики фиксируют рост «нормализации» антисемитских, расистских и насильственных материалов. Пользователи все меньше реагируют на жесткий контент как на что-то из ряда вон выходящее. Бывший сотрудник TikTok советует родителям удалить приложение с телефона ребенка прямо сейчас.

*Деятельность Meta и ее продуктов (Facebook, Instagram) признана в России экстремистской и запрещена.