Миллионы ошибок в час: почему ИИ-обзоры Google нельзя воспринимать всерьёз

Google внедрила свои ИИ-обзоры (AI Overviews) в поисковую выдачу ещё в 2024 году, но проблема с достоверностью ответов так и не решена. Расследование показало, что даже после обновления моделей точность генерации не превышает 91%. Казалось бы, неплохой результат, но с учётом масштабов поискового трафика это выливается в десятки миллионов ошибочных ответов ежедневно.

Исследователи использовали бенчмарк SimpleQA, разработанный OpenAI в 2024 году, который включает более 4 тысяч вопросов с проверяемыми фактами. Предыдущая версия Gemini 2.5 давала точность 85%, а после перехода на Gemini 3.1 этот показатель вырос до 91%. Даже когда ИИ отвечает верно, больше половины его ссылок не подтверждают то, что он сказал. Аналитики Oumi изучили 5380 ссылок, на которые ссылались ИИ-обзоры. Facebook и Reddit оказались на втором и четвёртом местах по частоте цитирования, при этом когда ответ был неверным, соцсети упоминались даже чаще.

Доверяй, но проверяй

Доверяй, но проверяй

Представитель Google Нед Эдрианс (Ned Adriance) раскритиковал методологию исследования, по его словам, тест SimpleQA содержит некорректные данные и не отражает реальные поисковые запросы и Google предпочитает использовать собственную «верифицированную» версию бенчмарка. Ещё одна техническая сложность кроется в том, что ИИ-модели недетерминированы и один и тот же вопрос, заданный с интервалом в несколько секунд, может получить правильный ответ, а затем — ошибочный.

Система, которая обрабатывает больше пяти триллионов запросов в год, даже с 9% ошибок выдаёт сотни тысяч неверных ответов каждую минуту. Google постепенно повышает точность, но одновременно растёт доля ответов, которые невозможно проверить на истинность.

Ошибки ИИ могут иметь критическое значение

Ошибки ИИ могут иметь критическое значение

Главная проблема не в самом проценте ошибок, а в том, как ИИ их «упаковывает». Ответ выглядит авторитетно, без намёка на сомнение и вы не увидите в нём формулировок «возможно», «по некоторым данным» или «я не уверен». Нейросеть не сомневается никогда, поэтому даже 9% ошибок превращаются в колоссальное количество ложной информации. Google, конечно, предупреждает, что ответы надо проверять, но делает это мелким шрифтом после того, как вы уже получили «истину».

А вы сталкивались с тем, что Google выдавал откровенно неверную информацию в своих ИИ-обзорах? Или вы всегда перепроверяете такие ответы через другие источники?

НовостиЖелезо и технологииGoogleискусственный интеллект

Источник: vgtimes.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии