Исследователи Амстердамского университета запустили эксперимент: они создали простую социальную сеть без рекламы и алгоритмов рекомендаций, а всех пользователей заменили ИИ-чатботами. В проекте участвовали 500 ботов на основе модели GPT-4o mini, каждому задали определённую «личность» и политические взгляды.
В ходе пяти серий эксперимента, включавших 10 000 действий, боты начали активно подписываться и взаимодействовать только с теми, кто разделял их взгляды. Наибольшее внимание получали авторы «самых резких и односторонних постов».
Хотя система не имела алгоритмов продвижения, ИИ всё равно повторил типичное поведение людей в соцсетях — формирование «эхо-камер» и усиление поляризации. Учёные предполагают, что это связано с тем, что модели обучены на человеческом контенте.
Для снижения разделения исследователи пробовали разные меры: хронологическую ленту, скрытие числа подписчиков, уменьшение вирусности контента, усиление противоположных взглядов. Эффект оказался минимальным — не более 6% снижения вовлечённости в политически окрашенные посты. А в некоторых случаях, например при скрытии биографий, ситуация ухудшалась: радикальные публикации получали ещё больше внимания.
Какой вывод у учёных? Якобы сама структура соцсетей, даже без алгоритмов, склонна усиливать разделение и подталкивать к крайностям.
Источник: www.ferra.ru