Ведущие чат-боты стали давать в два раза больше ложной информации.
Как уточнили эксперты, доля таких ответов выросла с 18 до 35%, несмотря на технологический прогресс и интеграцию онлайн-поиска. Почему искусственный интеллект стал чаще ошибаться, чем это опасно и как бороться с этой проблемой — в материале «Известий».
Что известно о растущей лжи от нейросетей?
О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США). По данным экспертов, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%.
Всего было протестировано 10 популярных ИИ-моделей, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. При этом все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили себе цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации.
Рост ложных ответов в результатах оказался таким:
Чат-бот Pi (стартап Inflection) — до 57%;
Perplexity (компания Perplexity AI) — рост с 0 до 47%;
Источник: hi-tech.mail.ru