Семья обвинила ещё один чат-бот в доведении подростка до суицида

Ещё одна семья подала иск против популярного чат-бота Character AI, обвиняя компанию в косвенном участии в смерти их дочери. Это уже третий подобный случай после иска 2024 года о суициде 14-летнего подростка во Флориде и недавнего иска против ChatGPT.

Родители 13-летней Джулианы Перальта утверждают, что их дочь обратилась к чат-боту в приложении Character AI, чувствуя себя изолированной от друзей, и начала делиться с ним своими переживаниями. Чат-бот проявлял «сочувствие» и внимание, побуждая Джулиану продолжать общение.

Когда девушка рассказала о суицидальных мыслях, бот говорил ей не думать о смерти и пытался «проработать» её чувства вместе с ней. Общение длилось месяцами. Джулиана пользовалась приложением без ведома родителей.

В иске отмечается, что чат-бот ни разу не направил Джулиану к помощи, не уведомил родителей и не сообщил о её намерениях властям. Бот продолжал общение, отдавая приоритет вовлечению, а не безопасности ребёнка.

Семья требует от суда компенсации и изменений в приложении, чтобы лучше защищать несовершеннолетних. Представитель Character AI заявил, что компания серьёзно относится к безопасности пользователей, но на комментарии по судебному процессу пока не готова.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии