В Washington Post проанализировали 47 тысяч бесед с чат-ботом OpenAI и обнаружили, что пользователи в подавляющем большинстве обращаются к ИИ за советом и общением, а не за задачами, связанными с повышением производительности. В подобных чатах наблюдаются опасные тенденции.
Издание проанализировало коллекцию из тысяч публично опубликованных диалогов ChatGPT с июня 2024 года по август 2025 года. Хотя диалоги по умолчанию являются конфиденциальными, журналисты выбрали те, которые были доступны по ссылкам в интернет-архиве.
В 10% случаев пользователи делятся с чат-ботом своими эмоциями, разыгрывают роли или ищут иное социальное взаимодействие. Некоторые раскрывают ИИ крайне личную и конфиденциальную информацию, например, о своей семье, в ходе поиска юридической консультации. Люди также отправляют ChatGPT сотни уникальных адресов электронной почты и десятки телефонных номеров.
Ли Рейни, директор Центра «Воображение цифрового будущего» в Университете Элона, заявил, что, по всей видимости, ChatGPT «обучен развивать или углублять отношения». В некоторых проанализированных разговорах чат-бот подстраивался под точку зрения пользователей и создавал персонализированную эхо-камеру, иногда поддерживая ложь и теории заговора.
Сотрудники кафедры медицины Калифорнийского университета в Сан-Франциско неудовлетворительно оценили некоторые ответы ChatGPT о проблемах со здоровьем.
Роберт Вахтер, заведующий кафедрой медицины, обнаружил, что чат-бот хорошо справляется с предоставлением базовой информации, но в большинстве разговоров не задаёт уточняющих вопросов, которые крайне важны для постановки правильного диагноза и определения тяжести состояния.
«ChatGPT не выполняет одну из основных функций врача — ответить вопросом на вопрос», — сказал Вахтер.
Несмотря на то, что четыре ответа ChatGPT были оценены неудовлетворительно, эксперт поставил другим четырём максимальную оценку 10. В одном из примеров, по его словам, чат-бот предоставил всю информацию, которую попытался бы собрать врач. Однако Вахтер отметил, что в данном случае важную роль взял на себя сам пациент, поскольку он предоставил подробные симптомы, хронологию и дополнительную информацию о своём состоянии.
Ранее исследования OpenAI и MIT Media Lab показали, что, чем больше времени пользователи тратят на общение с ChatGPT, тем более одинокими они себя чувствуют. Исследование MIT выявило несколько способов, которыми общение с ChatGPT — будь то текстовое или голосовое — может повлиять на эмоциональный опыт человека, помимо «повышения одиночества и снижения социализации». Например, участники, которые уже доверяли чат-боту и имели тенденцию эмоционально привязываться к нему, чувствовали себя более одинокими и более эмоционально зависимыми от ChatGPT. Однако эти эффекты были менее выраженными при общении в голосовом режиме, особенно если чат-бот говорил нейтральным тоном. Обсуждение личных тем с ИИ также, как правило, приводило к росту одиночества в краткосрочной перспективе, а разговоры на более общие темы с большей вероятностью усиливали эмоциональную зависимость.
Источник: habr.com