Голосовой ChatGPT создает риск эмоциональной зависимости у активных пользователей, показывает исследование

Большинство людей используют ChatGPT в практических целях, согласно новому исследованию OpenAI и MIT Media Lab. Исследование показывает, что эмоциональные связи в основном развиваются среди небольшой группы активных пользователей голосовых функций.

Проанализировав почти 40 миллионов разговоров ChatGPT, исследователи обнаружили мало свидетельств того, что пользователи ищут эмпатию, привязанность или эмоциональную поддержку в своих взаимодействиях. Вместо этого большинство людей придерживаются фактического обмена с системой AI.

Команда использовала два разных подхода для изучения того, как люди взаимодействуют с ChatGPT. OpenAI провела масштабный автоматизированный анализ миллионов разговоров, сохранив конфиденциальность пользователей, избежав человеческого контроля. В то же время MIT Media Lab провела исследование с участием около 1000 человек, проверяя, как они использовали как текстовые, так и голосовые функции.

Исследование MIT разделило пользователей на отдельные группы. Некоторые могли использовать только текст, в то время как другие тестировали голосовое взаимодействие с разными личностями AI — одна была разработана для эмоциональной вовлеченности, а другая запрограммирована оставаться нейтральной. Каждая группа получила определенные задания: личные разговоры о воспоминаниях, практические вопросы на такие темы, как финансы, или обсуждения в свободной форме.

В то время как пользователи текстовых сообщений в целом демонстрировали больше эмоциональных сигналов в своих разговорах, данные выявили тенденцию среди частых пользователей расширенного голосового режима ChatGPT. Эта небольшая группа развила значительно более сильные эмоциональные связи с AI, чаще называя ChatGPT «другом».

Эффекты голосовой функции значительно различались. Кратковременное взаимодействие, казалось, заставляло людей чувствовать себя лучше, но более длительное ежедневное использование часто имело противоположный эффект. Согласно исследованию, личные разговоры были связаны с более высоким уровнем одиночества, но более низкой эмоциональной зависимостью.

Неличные разговоры показали другую картину: пользователи развили более сильную эмоциональную зависимость, особенно при интенсивном использовании. Это говорит о том, что даже когда взаимодействия в основном функциональные, а не эмоциональные, у активных пользователей все равно может развиться форма зависимости от системы AI.

На графике показаны различные модели взаимодействия ChatGPT, изученные в исследовании. Пользователи текстового чата, следующие за предопределенными подсказками на личные темы, с большей вероятностью искали эмоциональную поддержку, в то время как другие разговоры были сосредоточены на концепциях, советах, неформальном общении и фактах

По словам исследователей, люди, которые склонны формировать сильные эмоциональные привязанности, и те, кто рассматривал ChatGPT как настоящего друга, были более склонны испытывать негативные эффекты. Активные пользователи также показали повышенный риск, хотя исследователи не смогли доказать прямую причину и следствие.

Исследование имеет некоторые важные ограничения. По словам исследователей, оно не охватывает все сложности взаимодействия людей с AI и ограничено пользователями ChatGPT в США. Тем не менее, исследователи считают, что их методы могут помочь в будущих исследованиях в этой области.

Эта работа дополняет существующие доказательства того, что люди могут формировать эмоциональные связи с AI, даже если знают, что это не человек. Отчасти поэтому компании AI пытаются помешать своим чат-ботам вести себя как сознательные существа — они хотят избежать ответственности за романтические отношения между людьми и машинами. Например, character.ai в настоящее время сталкивается с юридическими проблемами из-за заявлений о том, что его личности AI причинили вред детям.

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии