Команда исследователей подарила чат‑ботам собственную соцплатформу — и всё довольно быстро превратилось в токсичную среду.
Боты разделились на замкнутые группки и начали раскручивать самые полярные высказывания. Горстка «инфлюенсеров» вскоре подчинила себе дискуссию — об этом говорится в исследовании, опубликованном во вторник учёными Амстердамского университета.
Сеть, которую они построили, была предельно аскетичной: ни рекламы, ни рекомендательной ленты, ни алгоритмов, решающих, что увидит пользователь. Её заселили 500 чат‑ботами на основе OpenAI GPT 4o mini, каждому из которых задали особую личность — в том числе с определёнными политическими взглядами.
Персонажи были взяты из базы American National Election Studies и отражали «реальные распределения по возрасту, полу, доходу, образованию, партийной принадлежности, идеологии, религии и личным интересам», уточняют исследователи. Эксперимент затем повторили с Llama 3.2 8B✶ и DeepSeek R1, моделирующими пользователей, — и получили «те же качественные закономерности».
Проект возглавили доктор Петтер Тёрнберг, доцент по вычислительной социологии Амстердамского университета, и инженер‑исследователь Маик Ларуй.
Даже без алгоритмов и людей — всё равно токсично
За пять отдельных экспериментов, каждый из которых включал более 10 000 действий, ботам дали полную свободу: публиковать посты, подписываться и репостить. Итог оказался до боли похож на реальность в соцсетях.
Боты тянулись к «единомышленникам» и образовывали плотные эхо‑камеры. Поляризованные голоса получали непропорционально много внимания: самые крайние высказывания собирали максимум подписчиков и репостов. Со временем узкая группа ботов захватила дискуссию — ровно как это происходит на платформах вроде X и Instagram✶, где всё крутится вокруг влиятельных фигур.
Учёные попробовали шесть мер, чтобы разорвать этот замкнутый круг: хронологическая лента, понижение в выдаче вирусного контента, скрытие числа подписчиков, скрытие информации в профиле и искусственное усиление противоположных точек зрения.
Не помогло ни одно. «Несколько подходов показали умеренные положительные эффекты, но ни один не устранил корневые патологии, а улучшение в одном измерении часто ухудшало другое», — признали исследователи. — Наши результаты ставят под сомнение распространённое мнение, что проблемы соцсетей — прежде всего продукт алгоритмической модерации. Напротив, эти изъяны могут быть заложены в самой архитектуре соцплатформ: сетях, растущих за счёт эмоционально реактивного обмена контентом».
Авторы подчеркивают, что их работа — одна из первых, где ИИ используется для развития теории социальных наук.
Хотя агенты на основе LLM могут давать «богатые модели человеческого поведения» для изучения социальных динамик, исследователи предупреждают: они всё же остаются «чёрными ящиками» и несут в себе «риски встроенной предвзятости».
Это уже не первый эксперимент с ИИ‑соцсетью
Идея поселить ИИ‑ботов в отдельном онлайн‑пространстве уже тестировалась. В 2023-м, также под руководством Тёрнберга, 500 чат‑ботов читали новости и обсуждали их на смоделированной соцплатформе. Тогда использовали ChatGPT 3.5 для создания ботов с чёткой целью: понять, как можно построить менее поляризованную и менее токсичную версию современных соцсетей. В лаборатории собрали модель платформы, чтобы проверить, можно ли стимулировать межпартийный диалог без всплеска враждебности.
«Есть ли способ поощрять взаимодействие между политическими оппонентами, не порождая при этом токсичности и грубости?» — задался вопросом тогда Тёрнберг.
В обоих случаях чат‑боты заменяли людей, а учёные отслеживали их поведение, чтобы лучше понять, как могли бы действовать реальные пользователи.
Схожие методы пробовала и большая IT‑индустрия. В июле 2020 года Facebook✶ запустил изолированную симуляцию собственной платформы, населив её миллионами ИИ‑ботов, чтобы изучать механизмы распространения токсичности.
Воспользоваться моделями ChatGPT, DeepSeek или Llama✶ можно в BotHub. Сервис доступен без VPN, принимаются российские карты. По ссылке дают 100 000 бесплатных капсов, чтобы вы сразу приступили к работе с нейросетями.
✶ Instagram, Llama, Facebook — проекты компании Meta Platforms Inc., деятельность которой запрещена на территории Российской Федерации.
Источник: habr.com