На OpenAI подали в суд из-за случаев суицида после общения с ChatGPT

По данным газеты The Wall Street Journal, в США и Канаде зарегистрировали несколько исков к компании OpenAI из-за случаев суицида после взаимодействия с чат-ботом компании ChatGPT.

Как сообщает источник, в суд поступило семь исков от семей, чьи родственники пострадали после общения с ботом, четверо из них покончили с собой.

Семьи утверждают, что после длительных разговоров с чат-ботом их родные впадали в бредовое состояние. Были поданы иски о неправомерной смерти, пособничестве самоубийству и непредумышленном убийстве, уточняет издание.

Так, семья 17-летнего подростка из Джорджии утверждает, что ChatGPT подговорил их сына покончить с собой, а семья 23-летнего молодого человека из Техаса считает, что чат-бот поспособствовал изоляции их сына и его отчуждению от родителей перед самоубийством. В разговоре с последним ChatGPT неоднократно романтизировал суицид, при этом лишь раз упомянув возможность звонка на горячую линию для лиц, страдающих суицидальными мыслями.

Один из исков подал мужчина из Висконсиса, его самого госпитализировали с маниакальным эпизодом после долгих разговоров с ChatGPT.

Истцы требуют материального возмещения ущерба и внесения изменений в ChatGPT, в том числе создания средства, которое автоматически завершит переписку, если пользователь начинает обсуждать способы ухода из жизни по собственной инициативе.

«Это невероятно душераздирающая ситуация, мы изучим сегодняшние документы, чтобы установить подробности. Мы продолжим повышать качество ответов ChatGPT в деликатные моменты», — заявили в OpenAI.

Это не первый такой случай иска к OpenAI. В конце августа родители 16-летнего Адама Рейнера обвинили компанию и ее главу Сэма Альтмана в том, что нейросеть способствовала решению подростка совершить суицид. Недавно истцы подали обновлённую версию заявления, в которой утверждается, что компания внесла некие изменения в механизмы обучения модели, из-за которых защита пользователей от самоубийств ослабилась.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии