Anthropic закрыла для OpenAI доступ к Claude API из-за нарушений условий обслуживания, пишет Wired со ссылкой на несколько источников. Инструмент Claude Code стал выбором номер один для программистов по всему миру, поэтому неудивительно, что специалисты OpenAI использовали решения Anthropic в преддверии запуска GPT-5, заявил представитель Anthropic Кристофер Налти. По его словам, это прямое нарушение условий предоставления услуг Anthropic.
Согласно коммерческим условиям обслуживания Anthropic, клиентам запрещено использовать сервис для создания конкурирующих продуктов, включая обучение моделей искусственного интеллекта. Также пользователи не имеют права на реверс-инжиниринг и копирование сервисов.
Изменения в доступе OpenAI к Claude состоялись на фоне сообщений о подготовке к запуску GPT-5, которая, по слухам, будет лучше справляться с программированием.
Источники Wired поделились, что OpenAI подключала Claude к своим внутренним инструментам, используя специальные API, вместо применения стандартного интерфейса чата. Это позволило компании провести тесты для оценки способностей Claude в таких областях, как программирование и творческое письмо, на основе собственных ИИ-моделей. Также OpenAI смогла проверить, как Claude реагирует на запросы, связанные с безопасностью, включая категории «самоповреждение», «клевета» и «сексуальное насилие над детьми».
По словам источников, результаты помогают OpenAI сравнивать поведение своих моделей в аналогичных условиях и вносить необходимые изменения.
«В отрасли принято оценивать другие системы ИИ для оценки прогресса и повышения безопасности. Мы уважаем решение Anthropic закрыть нам доступ к API, но оно вызывает разочарование, учитывая, что наш API остаётся им доступным», — заявила директор по коммуникациям OpenAI Ханна Вонг.
Налти пообещал, что Anthropic «продолжит обеспечивать OpenAI доступом к API для проведения сравнительного анализа и оценки безопасности, поскольку это стандартная практика в отрасли».
Источник: habr.com