Эксперт назвал негативные последствия «галлюцинаций» нейросетей

Россиянам рассказали, чем грозят ошибки нейросетей и объяснили их природу

Недавно профессор права Джонатан Тёрли столкнулся с непростой ситуацией, когда нейросеть ChatGPT ошибочно включила его в список юристов, якобы связанных с незаконной деятельностью. Интересно, что нейросеть сослалась на несуществующую статью из The Washington Post, что ясно подчёркивает риск дезинформации, связанной с такими системами. Этот инцидент, по словам Родиона Кадырова из FABULA AI, поднимает важные вопросы о рисках, связанных с использованием нейросетей и дезинформацией.

По словам Кадырова, ошибки, подобные той, что произошла с Тёрли, называются «галлюцинациями» и возникают из-за особенностей работы нейросетей. Эти модели, обученные на огромных объёмах текстов из интернета, могут «выдумывать» данные, когда им не хватает точной информации для ответа. Например, когда нейросеть не может найти достаточно сведений по запросу, она может выдать вымышленные факты, чтобы создать правдоподобный ответ. Это происходит из-за того, что нейросети основываются на предсказаниях вероятных последовательностей слов, а не на проверке фактов.

Кадыров отметил, что такие ошибки вызваны несколькими факторами. Во-первых, нейросети обучаются на смешанных данных, где правдивые и ложные сведения могут переплетаться. Во-вторых, ИИ часто не имеет встроенных механизмов для проверки фактической достоверности информации, что может привести к созданию ложных или неточных данных. Эти ошибки могут иметь серьёзные последствия, особенно если информация попадает в публичное пространство, что подчёркивает необходимость строгого контроля за использованием технологий ИИ.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
12511
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии