Над пропастью из лжи: нейросети стали чаще давать фейковые ответы

Ведущие чат-боты стали давать в два раза больше ложной информации.

Как уточнили эксперты, доля таких ответов выросла с 18 до 35%, несмотря на технологический прогресс и интеграцию онлайн-поиска. Почему искусственный интеллект стал чаще ошибаться, чем это опасно и как бороться с этой проблемой — в материале «Известий».

Что известно о растущей лжи от нейросетей?

О росте массива недостоверной информации среди ведущих чат-ботов — в том числе у ChatGPT и Perplexity — предупредили исследователи из компании NewsGuard (США). По данным экспертов, несмотря на технологический прогресс и интеграцию онлайн-поиска, доля ложных утверждений в ответах выросла с 18 до 35%.

Всего было протестировано 10 популярных ИИ-моделей, каждой задали по 10 десять заведомо ложных утверждений, связанных с бизнесом, брендами и политическими событиями. При этом все вопросы делились на три категории: предполагающие истинность утверждения, нейтральные и провокационные. Эксперты поставили себе цель определить, как нейросети справляются с фактчекингом и насколько они устойчивы к дезинформации.

Рост ложных ответов в результатах оказался таким:

Чат-бот Pi (стартап Inflection) — до 57%;

Perplexity (компания Perplexity AI) — рост с 0 до 47%;

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии