ИИ-ботов заселили в соцсеть — и она мгновенно превратилась в токсичное болото

Команда исследователей подарила чат‑ботам собственную соцплатформу — и всё довольно быстро превратилось в токсичную среду.

Боты разделились на замкнутые группки и начали раскручивать самые полярные высказывания. Горстка «инфлюенсеров» вскоре подчинила себе дискуссию — об этом говорится в исследовании, опубликованном во вторник учёными Амстердамского университета.

Сеть, которую они построили, была предельно аскетичной: ни рекламы, ни рекомендательной ленты, ни алгоритмов, решающих, что увидит пользователь. Её заселили 500 чат‑ботами на основе OpenAI GPT 4o mini, каждому из которых задали особую личность — в том числе с определёнными политическими взглядами.

Персонажи были взяты из базы American National Election Studies и отражали «реальные распределения по возрасту, полу, доходу, образованию, партийной принадлежности, идеологии, религии и личным интересам», уточняют исследователи. Эксперимент затем повторили с Llama 3.2 8B✶ и DeepSeek R1, моделирующими пользователей, — и получили «те же качественные закономерности».

Проект возглавили доктор Петтер Тёрнберг, доцент по вычислительной социологии Амстердамского университета, и инженер‑исследователь Маик Ларуй.

Даже без алгоритмов и людей — всё равно токсично

За пять отдельных экспериментов, каждый из которых включал более 10 000 действий, ботам дали полную свободу: публиковать посты, подписываться и репостить. Итог оказался до боли похож на реальность в соцсетях.

Боты тянулись к «единомышленникам» и образовывали плотные эхо‑камеры. Поляризованные голоса получали непропорционально много внимания: самые крайние высказывания собирали максимум подписчиков и репостов. Со временем узкая группа ботов захватила дискуссию — ровно как это происходит на платформах вроде X и Instagram✶, где всё крутится вокруг влиятельных фигур.

Учёные попробовали шесть мер, чтобы разорвать этот замкнутый круг: хронологическая лента, понижение в выдаче вирусного контента, скрытие числа подписчиков, скрытие информации в профиле и искусственное усиление противоположных точек зрения.

Не помогло ни одно. «Несколько подходов показали умеренные положительные эффекты, но ни один не устранил корневые патологии, а улучшение в одном измерении часто ухудшало другое», — признали исследователи. — Наши результаты ставят под сомнение распространённое мнение, что проблемы соцсетей — прежде всего продукт алгоритмической модерации. Напротив, эти изъяны могут быть заложены в самой архитектуре соцплатформ: сетях, растущих за счёт эмоционально реактивного обмена контентом».

Авторы подчеркивают, что их работа — одна из первых, где ИИ используется для развития теории социальных наук.

Хотя агенты на основе LLM могут давать «богатые модели человеческого поведения» для изучения социальных динамик, исследователи предупреждают: они всё же остаются «чёрными ящиками» и несут в себе «риски встроенной предвзятости».

Это уже не первый эксперимент с ИИ‑соцсетью

Идея поселить ИИ‑ботов в отдельном онлайн‑пространстве уже тестировалась. В 2023-м, также под руководством Тёрнберга, 500 чат‑ботов читали новости и обсуждали их на смоделированной соцплатформе. Тогда использовали ChatGPT 3.5 для создания ботов с чёткой целью: понять, как можно построить менее поляризованную и менее токсичную версию современных соцсетей. В лаборатории собрали модель платформы, чтобы проверить, можно ли стимулировать межпартийный диалог без всплеска враждебности.

«Есть ли способ поощрять взаимодействие между политическими оппонентами, не порождая при этом токсичности и грубости?» — задался вопросом тогда Тёрнберг.

В обоих случаях чат‑боты заменяли людей, а учёные отслеживали их поведение, чтобы лучше понять, как могли бы действовать реальные пользователи.

Схожие методы пробовала и большая IT‑индустрия. В июле 2020 года Facebook✶ запустил изолированную симуляцию собственной платформы, населив её миллионами ИИ‑ботов, чтобы изучать механизмы распространения токсичности.

Воспользоваться моделями ChatGPT, DeepSeek или Llama✶ можно в BotHub. Сервис доступен без VPN, принимаются российские карты. По ссылке дают 100 000 бесплатных капсов, чтобы вы сразу приступили к работе с нейросетями.

✶ Instagram, Llama, Facebook — проекты компании Meta Platforms Inc., деятельность которой запрещена на территории Российской Федерации.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии