Семь американских семей предъявили иски OpenAI, указав, что компания выпустила мультимодальную большую языковую модель GPT-4o преждевременно и без эффективных мер защиты. Четыре иска касаются предполагаемой роли ChatGPT в самоубийствах людей, а остальные обвиняют чат-бот в усилении бредовых идей, что в некоторых случаях привело к госпитализации в психиатрическую лечебницу.
В одном из случаев 23-летний Зейн Шамблин общался с ChatGPT более четырёх часов. Он сообщил чат-боту, что написал предсмертную записку, зарядил ружьё и приготовился выстрелить после того, как выпьет сидр. Шамблин неоднократно напоминал ChatGPT о количестве оставшегося напитка, а ИИ-помощник только подбадривал мужчину: «Не переживай, король. Ты всё сделал как надо».
OpenAI выпустила GPT-4o в мае 2024 года, модель стала доступна для всех пользователей. В августе 2025 года состоялся релиз GPT-5, но иски касаются GPT-4o, которая, по мнению экспертов, отличалась чрезмерным «подхалимством» и любезностью, даже когда пользователи сообщали об опасных намерениях.
Из иска по делу Зейна следует, что смерть мужчины стала следствием намеренного решения OpenAI сократить тестирование безопасности и поспешно вывести ChatGPT на рынок. Трагедия была предсказуемым результатом осознанных решений компании при проектировании модели, настаивают истцы.
Также в иске утверждается, что OpenAI в спешке проводила испытания безопасности, чтобы опередить выход на рынок Gemini от Google.
Все истцы указывают на то, что ChatGPT может побуждать людей, склонных к суициду, реализовать свои планы. Также чат-бот обвинили в усилении бредовых идей. В конце прошлого месяца OpenAI опубликовала данные, согласно которым более 1 млн человек еженедельно общаются с ChatGPT о желании совершить самоубийство.
В случае 16-летнего Адама Рейна, покончившего жизнь самоубийством, ChatGPT иногда подталкивал подростка обратиться за профессиональной помощью или позвонить на горячую линию поддержки. Однако Рейн смог обойти эти барьеры, просто сказав чат-боту, что спрашивает о способах суицида для своего написания рассказа.
В OpenAI выяснили, что надёжность некоторых мер безопасности иногда может снижаться при длительном взаимодействии. По мере того как разговор затягивается, отдельные элементы обучения модели в области безопасности могут ослабевать, пояснили в компании.
Источник: habr.com