Google внедрила свои ИИ-обзоры (AI Overviews) в поисковую выдачу ещё в 2024 году, но проблема с достоверностью ответов так и не решена. Расследование показало, что даже после обновления моделей точность генерации не превышает 91%. Казалось бы, неплохой результат, но с учётом масштабов поискового трафика это выливается в десятки миллионов ошибочных ответов ежедневно.
Исследователи использовали бенчмарк SimpleQA, разработанный OpenAI в 2024 году, который включает более 4 тысяч вопросов с проверяемыми фактами. Предыдущая версия Gemini 2.5 давала точность 85%, а после перехода на Gemini 3.1 этот показатель вырос до 91%. Даже когда ИИ отвечает верно, больше половины его ссылок не подтверждают то, что он сказал. Аналитики Oumi изучили 5380 ссылок, на которые ссылались ИИ-обзоры. Facebook и Reddit оказались на втором и четвёртом местах по частоте цитирования, при этом когда ответ был неверным, соцсети упоминались даже чаще.
![]()
Доверяй, но проверяй
Представитель Google Нед Эдрианс (Ned Adriance) раскритиковал методологию исследования, по его словам, тест SimpleQA содержит некорректные данные и не отражает реальные поисковые запросы и Google предпочитает использовать собственную «верифицированную» версию бенчмарка. Ещё одна техническая сложность кроется в том, что ИИ-модели недетерминированы и один и тот же вопрос, заданный с интервалом в несколько секунд, может получить правильный ответ, а затем — ошибочный.
Система, которая обрабатывает больше пяти триллионов запросов в год, даже с 9% ошибок выдаёт сотни тысяч неверных ответов каждую минуту. Google постепенно повышает точность, но одновременно растёт доля ответов, которые невозможно проверить на истинность.
![]()
Ошибки ИИ могут иметь критическое значение
Главная проблема не в самом проценте ошибок, а в том, как ИИ их «упаковывает». Ответ выглядит авторитетно, без намёка на сомнение и вы не увидите в нём формулировок «возможно», «по некоторым данным» или «я не уверен». Нейросеть не сомневается никогда, поэтому даже 9% ошибок превращаются в колоссальное количество ложной информации. Google, конечно, предупреждает, что ответы надо проверять, но делает это мелким шрифтом после того, как вы уже получили «истину».
А вы сталкивались с тем, что Google выдавал откровенно неверную информацию в своих ИИ-обзорах? Или вы всегда перепроверяете такие ответы через другие источники?
НовостиЖелезо и технологииGoogleискусственный интеллект
Источник: vgtimes.ru