Бывший сотрудник OpenAI: компания не оправдала ожиданий пользователей

Бывший исследователь безопасности OpenAI Стивен Адлер заявил, что компания не предпринимает достаточных усилий для решения проблем зависимости пользователей от чат-ботов, а поддаётся «давлению конкуренции» и отказывается от своей ориентации на безопасный ИИ.

Он раскритиковал главу компании Сэма Альтмана за его утверждения о том, что OpenAI «смогла смягчить серьёзные проблемы с психическим здоровьем» с помощью «новых инструментов», а также за то, что тот анонсировал появление контента для взрослых на платформе.

«У меня есть серьёзные вопросы, основанные на моём четырёхлетнем опыте работы в OpenAI и моём независимом исследовании, проведённом после ухода из компании в прошлом году, относительно того, действительно ли эти проблемы с психическим здоровьем решены. Если у компании действительно есть веские основания полагать, что она готова вернуть эротику на свои платформы, она должна продемонстрировать свою работу», — написал Адлер. 

По его словам, «люди заслуживают большего, чем просто заявления компании о том, что она решила проблемы безопасности». «Другими словами: докажите это», — добавил Адлер.

По мнению исследователя, обилие контента для взрослых может иметь катастрофические последствия. «Дело не в том, что эротика сама по себе плоха, а в том, что появились явные признаки сильной эмоциональной привязанности пользователей к чат-ботам на базе искусственного интеллекта», — написал он.

Адлер сослался на свой опыт руководства командой по безопасности продуктов OpenAI в 2021 году, когда выяснилось, что «для пользователей, которые, по-видимому, страдали от проблем с психическим здоровьем, нестабильные сексуальные контакты были рискованными».

Исследователь призвал компанию не просто делать заявления, а приводить сравнение своих показателей за последние несколько месяцев.

Адлер предположил, что вместо быстрых рывков OpenAI, «возможно, придётся замедлиться на достаточно долгое время, чтобы мир изобрел новые методы безопа��ности — такие, которые не смогут обойти даже злонамеренные группы». 

«Если OpenAI и её конкурентам доверят создание сейсмических технологий, к которым они стремятся, они должны продемонстрировать, что заслуживают доверия в управлении рисками сегодня», — заключил исследователь.

Между тем сотни представителей отрасли, от Стива Возняка до Ричарда Брэнсона, подписали открытое письмо с призывом запретить разработку сверхразума на основе искусственного интеллекта, пока учёные не достигнут консенсуса о его безопасности и управляемости. Среди тех, кто не поддержал инициативу, оказались генеральный директор OpenAI Сэм Альтман, соучредитель DeepMind и руководитель ИИ-подразделения Microsoft Мустафа Сулейман, глава Anthropic Дарио Амодеи, советник Белого дома по ИИ и криптовалютам Дэвид Сакс, а также основатель xAI Илон Маск. 

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии