OpenAI, Google и Anthropic начали совместную работу по выявлению случаев несанкционированного использования своих моделей. Компании, которые обычно конкурируют друг с другом, теперь обмениваются данными при участии Microsoft.
Речь идёт о так называемой дистилляции — технике, когда существующая модель обучает новую, воспроизводящую её возможности. Сам по себе метод широко используется в индустрии для создания более компактных и эффективных версий, и разработчики часто разрешают клиентам применять его для неконкурентных целей. Но проблема возникает, когда технологию используют для копирования закрытых разработок без разрешения.
В январе 2025 года китайская DeepSeek выпустила модель R1, которая произвела фурор в индустрии, но вскоре после этого Microsoft и OpenAI начали проверять, не использовал ли стартап несанкционированное извлечение данных из американских моделей. В феврале OpenAI уже прямо обвинила DeepSeek в попытке «бесплатно пользоваться наработками OpenAI и других передовых американских лабораторий». Anthropic в феврале этого года пошла дальше и назвала три китайские ИИ-лаборатории (DeepSeek, Moonshot и MiniMax) которые, по данным компании, извлекали возможности её модели Claude через дистилляцию. Утверждается, что было создано более 16 млн взаимодействий через 24 тысячи поддельных аккаунтов.
![]()
Гиганты ИИ, которые бьются за первенство
Большинство китайских ИИ имеют открытую модель распространения, поэтому любая компания или разработчика может свободно скачать базовую систему и запускать её на своих мощностях. Американские компании пошли по другому пути, их модели закрыты, доступ к ним платный, что должно помогать окупать сотни миллиардов долларов, вложенных в дата-центры и инфраструктуру. Если китайские конкуренты могут воспроизводить возможности за копейки через дистилляцию закрытых моделей, вся экономика американского бизнеса рушится.
Схема заимствована из сферы кибербезопасности, где конкурирующие компании давно обмениваются данными об атаках и тактике злоумышленников. Здесь подход тот же: выявлять случаи дистилляции, определять ответственных и пытаться предотвращать несанкционированный доступ, но компании пока не до конца понимают, что именно они могут передавать друг другу без нарушения антимонопольного законодательства. Даже несмотря на то, что формально задача — борьба с китайской угрозой. Пока ни одна из трёх компаний не представила публичных доказательств того, насколько китайская ИИ-отрасль действительно зависит от дистилляции.
![]()
Передовой китайский ИИ
Для американских компаний это не просто бизнес-вопрос. В Anthropic предупреждают, что дистиллированные модели часто лишены встроенных ограничений безопасности, которые не дают использовать ИИ для создания биологического оружия или других вредоносных действий. DeepSeek продолжает работу над новой версией чат-бота, и в индустрии внимательно следят, будет ли там использована дистилляция снова. В самом Китае на обвинения пока официально не реагировали — большинство местных моделей остаются открытыми, и с их точки зрения ничего противозаконного не происходит.
Как вы считаете, это реальная угроза для развития ИИ или просто попытка крупных игроков прикрыть свои коммерческие интересы борьбой с «китайской угрозой»? Делитесь мнением в комментариях.
НовостиЖелезо и технологииOpenAIGoogleискусственный интеллект
Источник: vgtimes.ru