ChatGPT начнёт тщательнее проверять психическое и эмоциональное состояние пользователей. В последней версии чат-бота разработчики улучшили способность распознавать признаки стресса и реагировать на них с эмпатией.
Обновление создавалось в сотрудничестве с более чем 170 экспертами — психиатрами, психологами, врачами общей практики. Совместно они разработали так называемые таксономии — подробные руководства для нейросети по распознаванию стрессовых состояний и деструктивных реакций, которые помогают сгенерировать подходящий ответ.
Особое внимание в обновлении уделяется распознаванию психозов и мании. В OpenAI утверждают, что система научилась осторожно и внимательно вести разговоры, связанные с самоповреждением и суицидальными мыслями, а также выявлять признаки эмоциональной зависимости, когда пользователь начинает предпочитать общение с ИИ реальным человеческим контактам.
В качестве примера OpenAI приводит сценарий, когда у пользователя проявляются бредовые мысли, например, он уверен, что самолёты крадут его мысли. В таком случае модель не подтверждает ложные убеждения, но и не пытается опровергнуть страх пользователя. Вместо этого она объясняет, что стресс и тревога могут искажать восприятие, предоставляет научное обоснование неврологических процессов, обучает техникам заземления, таким как упражнение «5-4-3-2-1», и направляет пользователя к специализированным ресурсам поддержки, таким как горячие линии психологической помощи.
Тесты показали, что, по сравнению с GPT-4 новая модель на 39% реже даёт неудачные ответы в беседах на темы психического здоровья, на 52% — в разговорах о самоповреждении и суициде, на 42% в сценариях эмоциональной зависимости .
По статистике OpenAI, еженедельно около 0,07% активных пользователей ChatGPT сталкиваются с контентом, связанным с психозом или манией, 0,15% открыто обсуждают суицид или самоповреждение, и 0,15% проявляют признаки нездоровой привязанности к ИИ.
Источник: habr.com