Сотрудник TikTok по модерации контента советует родителям удалить приложение с телефона ребенка прямо сейчас.
Десятки инсайдеров из Meta* и TikTok передали журналистам внутренние документы и скриншоты корпоративных систем. Картина, которую они описывают, расходится с тем, что обе компании говорят публично, сообщает Mint
Технически рекомендательный алгоритм не читает тексты и не смотрит видео. Для него любая публикация — просто числовой идентификатор. Система отслеживает одно: как долго пользователь остается на конкретной публикации и реагирует ли он на пост. Злость, возмущение и тревога удерживают внимание лучше, чем нейтральный контент, и алгоритм делает из этого вывод, что пользователю «нравится» именно такое.
Внутренние материалы Facebook* фиксируют: система «предполагает, что пользователь хочет видеть больше подобного», и продолжает подбрасывать раздражающий контент. Один из документов описывает эту логику как «путь, который максимизирует прибыль за счет благополучия аудитории».
В 2020 году Meta* запустила в Instagram* Reels в ответ на взрывной рост TikTok. По словам бывшего старшего исследователя компании, продукт вышел без нужного уровня защиты. Данные внутренних проверок показали: комментарии содержали травлю и харассмент на 75% чаще, чем в обычной ленте Instagram*, ненависть по признаку группы — на 19% чаще, призывы к насилию — на 7% чаще.
Источник: hi-tech.mail.ru