DeepSeek довела конкурентов до союза: OpenAI, Google и Anthropic объединились

OpenAI, Google и Anthropic начали совместную работу по выявлению случаев несанкционированного использования своих моделей. Компании, которые обычно конкурируют друг с другом, теперь обмениваются данными при участии Microsoft.

Речь идёт о так называемой дистилляции — технике, когда существующая модель обучает новую, воспроизводящую её возможности. Сам по себе метод широко используется в индустрии для создания более компактных и эффективных версий, и разработчики часто разрешают клиентам применять его для неконкурентных целей. Но проблема возникает, когда технологию используют для копирования закрытых разработок без разрешения.

В январе 2025 года китайская DeepSeek выпустила модель R1, которая произвела фурор в индустрии, но вскоре после этого Microsoft и OpenAI начали проверять, не использовал ли стартап несанкционированное извлечение данных из американских моделей. В феврале OpenAI уже прямо обвинила DeepSeek в попытке «бесплатно пользоваться наработками OpenAI и других передовых американских лабораторий». Anthropic в феврале этого года пошла дальше и назвала три китайские ИИ-лаборатории (DeepSeek, Moonshot и MiniMax) которые, по данным компании, извлекали возможности её модели Claude через дистилляцию. Утверждается, что было создано более 16 млн взаимодействий через 24 тысячи поддельных аккаунтов.

Гиганты ИИ, которые бьются за первенство

Гиганты ИИ, которые бьются за первенство

Большинство китайских ИИ имеют открытую модель распространения, поэтому любая компания или разработчика может свободно скачать базовую систему и запускать её на своих мощностях. Американские компании пошли по другому пути, их модели закрыты, доступ к ним платный, что должно помогать окупать сотни миллиардов долларов, вложенных в дата-центры и инфраструктуру. Если китайские конкуренты могут воспроизводить возможности за копейки через дистилляцию закрытых моделей, вся экономика американского бизнеса рушится.

Схема заимствована из сферы кибербезопасности, где конкурирующие компании давно обмениваются данными об атаках и тактике злоумышленников. Здесь подход тот же: выявлять случаи дистилляции, определять ответственных и пытаться предотвращать несанкционированный доступ, но компании пока не до конца понимают, что именно они могут передавать друг другу без нарушения антимонопольного законодательства. Даже несмотря на то, что формально задача — борьба с китайской угрозой. Пока ни одна из трёх компаний не представила публичных доказательств того, насколько китайская ИИ-отрасль действительно зависит от дистилляции.

Передовой китайский ИИ

Передовой китайский ИИ

Для американских компаний это не просто бизнес-вопрос. В Anthropic предупреждают, что дистиллированные модели часто лишены встроенных ограничений безопасности, которые не дают использовать ИИ для создания биологического оружия или других вредоносных действий. DeepSeek продолжает работу над новой версией чат-бота, и в индустрии внимательно следят, будет ли там использована дистилляция снова. В самом Китае на обвинения пока официально не реагировали — большинство местных моделей остаются открытыми, и с их точки зрения ничего противозаконного не происходит.

Как вы считаете, это реальная угроза для развития ИИ или просто попытка крупных игроков прикрыть свои коммерческие интересы борьбой с «китайской угрозой»? Делитесь мнением в комментариях.

НовостиЖелезо и технологииOpenAIGoogleискусственный интеллект

Источник: vgtimes.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии