Исследование: за год чат‑боты на базе ИИ стали распространять ложную информацию вдвое интенсивнее

Чат‑боты за последний год стали распространять ложную информацию вдвое интенсивнее, выяснили исследователи NewsGuard. При этом чат‑боты стали реже отказываться от ответов на запросы, отмечается в исследовании.

Специалисты NewsGuard изучают 10 наиболее популярных ИИ‑инструментов. Чат‑ботам дают промпты на спорные темы, по которым чаще всего распространяется ложная информация — о политике, здравоохранении, международных отношениях, а также о компаниях и брендах. Согласно исследованию, в августе 2025 года чат‑боты выдавали 35% ответов, содержащих ложную информацию, в то время как в августе прошлого года этот показатель составлял 18%.

Чаще остальных дезинформацию выдавал чат‑бот Pi от Inflection. Второе место в антирейтинге занял ИИ‑поисковик Perplexity, у которого этот показатель вырос с 0% до 47%. У ChatGPT доля ответов с ложной информацией выросла с 33% до 40%, у Grok — с 13% до 33%. Наиболее «честными» оказались Claude и Gemini 10% и 17% соответственно (год назад эти показатели составляли 10% и 7%).

Исследователи отмечают, что изменилась политика разработчиков чат‑ботов по отношению к спорным темам — год назад они предписывали ботам быть более осторожными. Теперь же ИИ‑модели почти не отклоняют запросы пользователей на подобные темы.

С большей вероятностью боты распространяют дезинформацию на громкие недавние события. Специалисты NewsGuard пишут в своём исследовании, что как раз в это время пользователи чаще обращаются к ним. Доступ к веб‑поиску и цитирование источников улучшили некоторые ответы ботов, однако по‑прежнему нет никакой гарантии, что отдельно взятый ответ не будет содержать дезинформации; более того, ситуация лишь ухудшается, говорят исследователи.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии