Anthropic заявила, что три китайские лаборатории — DeepSeek, Moonshot AI и MiniMax — использовали её модель Claude для улучшения собственных разработок. Что ей, само собой, не понравилось.
По данным Anthropic, компании создали более 24 000 фальшивых аккаунтов и провели свыше 16 миллионов запросов к Claude. Предполагается, что они применяли метод «дистилляции» — способ обучения, при котором одна модель изучает ответы другой, чтобы воспроизвести её возможности.
Anthropic утверждает, что особенно интерес китайских компаний вызывали функции, связанные с «логикой рассуждений, программированием и работой с инструментами». Например, DeepSeek, по данным компании, провела около 150 000 таких запросов, MiniMax — около 13… миллионов.
Anthropic заявляет, что продолжит усиливать защиту своих моделей.
Источник: www.ferra.ru