Глава OpenAI предупредил о рисках использования ChatGPT в качестве психотерапевта

На подкасте Тео Вона глава OpenAI Сэм Альтман рекомендовал пользователям «подумать дважды» перед тем, как использовать ChatGPT в роли психотерапевта. Многие пользователи обращаются к нейросети за помощью в трудных ситуациях или просто советом — но проблема в том, что подобные разговоры никак не регулируются юридически. Консультации с настоящим писхотерапевтом защищены законом о конфиденциальности, который не распространяется на ChatGPT. Аналогичным образом защищены разговоры с врачами и юристами.

По словам Альтмана, сейчас OpenAI по умолчанию сохраняет все переписки — даже временные чаты остаются на серверах компании 30 дней. И если суд потребует эти данные — то компания будет вынуждена раскрыть их. Теоретически такое может произойти в случае, если пользователь окажется участником судебного процесса о разводе, опеке, трудовом споре и так далее — адвокаты другой стороны могут затребовать диалоги с ChatGPT и любым другим ИИ.

Глава OpenAI считает подобную ситуацию неправильной и просит законодателей догнать реальность. По его мнению, разговоры с ИИ на чувствительные темы также должны быть защищены законом о конфиденциальности.

По данным свежего опроса Talker Research для Vitamin Shoppe (июль 2025), уже около 35% взрослых американцев используют генеративные ИИ‑сервисы для вопросов здоровья и самочувствия: 31% проверяют через них симптомы и ищут информацию о заболеваниях, а примерно 20% обращаются к ботам за писхотерапевтической помощью.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии