Аналитическая компания Newsguard зафиксировала резкий рост ложных ответов чат-ботов на основе искусственного интеллекта: с 18% в 2024 году до 35% в августе 2025-го. Согласно результатам исследования, основная причина — внедрение функции веб-поиска в реальном времени, которая направляет алгоритмы к сфальсифицированным источникам.
«Ранний ИИ придерживался стратегии «не навреди», отказываясь отвечать на вопросы, чтобы избежать риска распространения ложной информации. Предоставление им возможности поиска позволило получить доступ к «заражённой» информационной экосистеме», — пояснили исследователи.
Худшие результаты показали нейросети Inflection (56,67% фейков) и Perplexity (46,67%). ChatGPT и Meta* генерировали ложные данные в 40% случаев. Наиболее точными оказались Claude (10%) и Gemini (16,67%). Эксперты предупредили, что проблема усугубляется на фоне массового использования ИИ для создания новостного контента и манипуляций в предвыборных кампаниях.
А ранее в России было проведено исследование, результаты которого показали, что большинство россиян не доверяют искусственному интеллекту. Данную точку зрения выразило около 66% респондентов.
* Деятельность компании Meta признана экстремистской и запрещена в России.
Источник: hi-tech.mail.ru