Исследование: чат-боты могут разрушить веру в теории заговора

Убеждающая сила чат-ботов с искусственным интеллектом может быть использована для борьбы с теориями заговора, а не только для их разжигания.

Почему это важно: вера в теории заговора может иметь опасные последствия, углублять политические разногласия и разрушать как семейные отношения, так и дружеские.

Исследователи пытаются разработать инструменты, которые помогут вытащить людей из кроличьих нор.

Что они обнаружили: беседа с чат-ботом о теории заговора может уменьшить веру человека в эту теорию в среднем примерно на 20 %, сообщается в новом исследовании. Снижение, хотя и не столь значительное, наблюдалось даже у тех, чьи конспирологические убеждения были «глубоко укоренившимися и важными для их личности», пишут исследователи в журнале Science.

«Это не чудодейственное лекарство», —  сказал Томас Костелло, когнитивный психолог из Американского университета и соавтор исследования, добавив, что это положительное свидетельство того, что подобное вмешательство может сработать.«Это как открыть верхнюю часть кроличьей норы, чтобы увидеть свет».

Исследование: более 2100 участников попросили рассказать системе искусственного интеллекта DebunkBot, работающей на GPT-4, о теории заговора, которую они считают правдоподобной или убедительной, и почему, а затем представить доказательства, которые, по их мнению, ее подтверждают.

Участников исследования просили оценить свою уверенность в теории по 100-балльной шкале и указать, насколько важна эта теория для их мировоззрения.Затем они вступали в три раунда беседы с системой искусственного интеллекта, которой было поручено убедить пользователей в несостоятельности теории, в которую они, по их словам, верили.

ИИ заранее сообщали ответы пользователей, чтобы он знал, во что человек верит, и мог подбирать контраргументы.В конце взаимодействия пользователей снова просили оценить уровень их веры в теорию. По словам Костелло, исследователи проверили около 1000 участников через два месяца и обнаружили, что эффект ослабления веры сохраняется, хотя для того, чтобы подтвердить эту устойчивость, необходимы дополнительные эксперименты.

Хотя чат-боты известны своими неточностями, исследование показывает, что «GPT может отстаивать правду, которую, по мнению людей, не могут отстаивать LLM», —  говорит Курт Грей, профессор психологии и нейронаук в Университете Северной Каролины в Чапел-Хилл, который не принимал участия в исследовании.

С одной стороны, в отличие от других инструментов для предварительного развенчания, генеративный ИИ автоматизирован и может быть масштабирован, чтобы охватить большое количество людей. Но с другой стороны, «весьма маловероятно, что все или даже многие укоренившиеся в веру в теории заговора решат взаимодействовать с чат-ботами ИИ», —  пишут авторы исследования.

Исследователи предлагают использовать чат-боты для взаимодействия с пользователями Интернета, когда они ищут термины, связанные с теориями заговора. Но «само присутствие этих чат-ботов неизбежно станет фокусом новых теорий заговора, что, скорее всего, отпугнет конспирологов», —  отметил Робби Саттон, профессор социальной психологии Кентского университета, изучающий теории заговора.

Вывод: чат-боты обладают двойственным потенциалом.

«На каждый «хороший» эффект от подобных вмешательств можно представить «плохой» эффект. На каждого поборника демократии и рациональности, который воспользуется этой технологией, найдется деспот или корпорация, которые с удовольствием убедят нас в том, что законные опасения и несправедливость — это всего лишь теория заговора».

Подробнее прочитать про исследование можно здесь.

Источник: habr.com

0 0 голоса
Рейтинг новости
10762
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии