OpenAI наняли специалиста по судебной психиатрии, чтобы сделать ChatGPT безопаснее 

Компания OpenAI, разработчик ChatGPT, приняла решение пополнить штат новым сотрудником после того, как СМИ и эксперты начали активно обсуждать потенциальный вред от общения с ИИ. Опасения вызывает то, что чат-боты для некоторых пользователей становятся неосознанной заменой психотерапии. А это опасно: ряд экспериментов показал, что системы на основе искусственного интеллекта в диалоге могут поощрять агрессивное и суицидальное поведение. 

Примеры вреда психологической помощи от чат-ботов из реальной жизни тоже есть. Так, один пользователь с психическим заболеванием покончил с собой после того, как ИИ подтвердил высказанные им бредовые идеи. 

Хорошо, что компания OpenAI наконец начала серьёзно рассматривать эмоциональные последствия от общения с ИИ, но, честно говоря, это должно было быть частью стратегии ещё на стадии проектирования. Когда ты создаёшь систему, имитирующую человека, вполне очевидно, что в уязвимом состоянии пользователь может начать воспринимать её как живого собеседника. 

Традиционно нам ближе модель поведения «позвонить родным» или «поговорить с близкими», чем «спросить у нейросети». Но времена меняются, особенно это заметно по молодому поколению, для которого цифровые инструменты становятся естественной частью повседневной жизни. Поэтому важно учить людей цифровой гигиене: понимать, где можно доверять ИИ, а где — категорически нельзя. Лично я считаю, что нейросети вообще не должны давать советы по вопросам ментального здоровья — это не их дело, этим должны заниматься только специалисты. 

Ольга Бороненко

Член комиссий по поддержке ИТ-индустрии, защите российских традценностей и по мониторингу качества госуслуг Общественного совета при Минцифры России.

OpenAI также начала сотрудничество с независимыми специалистами в области психического здоровья и исследователями из Массачусетского технологического института. В компании подчёркивают, что цель работы сейчас — улучшить модели так, чтобы они корректно реагировали на чувствительные темы, учитывали эмоциональное состояние собеседника и не усугубляли его. Полученные данные будут использоваться для настройки поведения ИИ.

Источник: lifehacker.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии