OpenAI усиливает меры безопасности, чтобы помешать конкурентам копировать её модели искусственного интеллекта. Этот шаг был предпринят на фоне обострения конкуренции между крупными компаниями в сфере ИИ.
Эти изменения последовали за обвинениями в адрес китайского стартапа Deepseek, который, как сообщается, использовал модели OpenAI для разработки собственных систем, в том числе R1, с помощью процесса, известного как «дистилляция». Deepseek не прокомментировал эти обвинения.
По данным Financial Times, в ответ на это OpenAI ограничила доступ к конфиденциальной информации, ввела биометрический контроль доступа и новые правила разделения данных. Один из основных шагов: внутренние системы отключаются от сети, если не получают явного разрешения на доступ к интернету. Эта мера призвана защитить весовые коэффициенты моделей от несанкционированной утечки.
Теперь сотрудникам разрешён доступ только к тем проектам, на которые у них есть специальное разрешение. Эта практика известна как «информационное разделение». Например, только коллеги, которым был предоставлен доступ, могли обсуждать проект с теми, кто работал над новой на тот момент моделью «o1» под кодовым названием «Strawberry».
Также были усилены меры физической безопасности. В центрах обработки данных теперь действуют более строгие правила доступа, а компания OpenAI наняла экспертов по безопасности с военным прошлым, в том числе Дэйна Стаки (ранее работавшего в Palantir) и отставного американского генерала Пола Накасоне.
Американские компании в сфере ИИ усиливают меры безопасности на фоне опасений Китая
В OpenAI заявляют, что эти изменения являются частью более масштабных инвестиций в безопасность, а не ответом на конкретный инцидент. Компания также реагирует на предупреждения официальных лиц США о росте промышленного шпионажа со стороны иностранных субъектов, в частности Китая.
Недавно OpenAI и Anthropic предупредили правительство США о модели R1 от Deepseek, сославшись на риски, связанные с вмешательством государства и широким доступом к данным. OpenAI обновила свою систему готовности для более систематического отслеживания возможностей с высоким уровнем риска, таких как автономное копирование и кибератаки, с использованием более строгих критериев и автоматизированного тестирования.
В глобальной гонке ИИ кража технологий становится всё более серьёзной угрозой для национальной и экономической безопасности. Сообщается, что Китай ввёл неофициальные ограничения на поездки для специалистов в области ИИ, посоветовав им без крайней необходимости не ездить в США и страны-союзники. В связи с этими более масштабными опасениями сотрудники Deepseek, как сообщается, обязаны сдать свои паспорта и больше не могут свободно выезжать за пределы Китая.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Перевод, источник новости здесь.
Источник: habr.com