Чат-боты могут формировать у пользователей ложные воспоминания: доказано учеными

Человек подвержен формированию ложных воспоминаний, и свою лепту в этот процесс вносит общение с искусственным интеллектом, который получает все большее распространение во всех сферах жизни.

Человеческая память устроена достаточно своеобразно: каждый раз, когда мы что-то вспоминаем, мозг заново реконструирует событие, заполняя пробелы с помощью ожиданий, прошлого опыта или внешних подсказок. Именно поэтому воспоминания могут искажаться со временем, а детали, которых на самом деле не было, начинают казаться абсолютно реальными. Этот механизм и решила проверить команда американских ученых под руководством Пата Патаранутапорна.

В эксперименте участвовали 180 человек со средним возрастом около 35 лет. Каждый из них сначала читал одну из трех информационных статей — о выборах в Таиланде, разработке лекарств или магазинных кражах в Великобритании. Затем участников случайным образом распределили по пяти группам. Четыре группы взаимодействовали с системой на основе LLM GPT-4o: одни читали сгенерированное ею краткое изложение статьи, другие вступали с ней в диалог. При этом в половине случаев ИИ был честен и точно передавал факты, а в другой половине — намеренно подмешивал к правдивой информации ложные детали. Пятая группа была контрольной и с ИИ не взаимодействовала.

После этого участники отвечали на вопросы о содержании прочитанной статьи, указывая, встречались ли в ней те или иные утверждения, и оценивая свою уверенность в ответах.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии