Бывший исследователь безопасности OpenAI Стивен Адлер заявил, что компания не предпринимает достаточных усилий для решения проблем зависимости пользователей от чат-ботов, а поддаётся «давлению конкуренции» и отказывается от своей ориентации на безопасный ИИ.
Он раскритиковал главу компании Сэма Альтмана за его утверждения о том, что OpenAI «смогла смягчить серьёзные проблемы с психическим здоровьем» с помощью «новых инструментов», а также за то, что тот анонсировал появление контента для взрослых на платформе.
«У меня есть серьёзные вопросы, основанные на моём четырёхлетнем опыте работы в OpenAI и моём независимом исследовании, проведённом после ухода из компании в прошлом году, относительно того, действительно ли эти проблемы с психическим здоровьем решены. Если у компании действительно есть веские основания полагать, что она готова вернуть эротику на свои платформы, она должна продемонстрировать свою работу», — написал Адлер.
По его словам, «люди заслуживают большего, чем просто заявления компании о том, что она решила проблемы безопасности». «Другими словами: докажите это», — добавил Адлер.
По мнению исследователя, обилие контента для взрослых может иметь катастрофические последствия. «Дело не в том, что эротика сама по себе плоха, а в том, что появились явные признаки сильной эмоциональной привязанности пользователей к чат-ботам на базе искусственного интеллекта», — написал он.
Адлер сослался на свой опыт руководства командой по безопасности продуктов OpenAI в 2021 году, когда выяснилось, что «для пользователей, которые, по-видимому, страдали от проблем с психическим здоровьем, нестабильные сексуальные контакты были рискованными».
Исследователь призвал компанию не просто делать заявления, а приводить сравнение своих показателей за последние несколько месяцев.
Адлер предположил, что вместо быстрых рывков OpenAI, «возможно, придётся замедлиться на достаточно долгое время, чтобы мир изобрел новые методы безопа��ности — такие, которые не смогут обойти даже злонамеренные группы».
«Если OpenAI и её конкурентам доверят создание сейсмических технологий, к которым они стремятся, они должны продемонстрировать, что заслуживают доверия в управлении рисками сегодня», — заключил исследователь.
Между тем сотни представителей отрасли, от Стива Возняка до Ричарда Брэнсона, подписали открытое письмо с призывом запретить разработку сверхразума на основе искусственного интеллекта, пока учёные не достигнут консенсуса о его безопасности и управляемости. Среди тех, кто не поддержал инициативу, оказались генеральный директор OpenAI Сэм Альтман, соучредитель DeepMind и руководитель ИИ-подразделения Microsoft Мустафа Сулейман, глава Anthropic Дарио Амодеи, советник Белого дома по ИИ и криптовалютам Дэвид Сакс, а также основатель xAI Илон Маск.
Источник: habr.com