OpenAI усиливает меры безопасности, чтобы не дать конкурентам скопировать свои передовые модели ИИ

OpenAI усиливает меры безопасности, чтобы помешать конкурентам копировать её модели искусственного интеллекта. Этот шаг был предпринят на фоне обострения конкуренции между крупными компаниями в сфере ИИ.

Эти изменения последовали за обвинениями в адрес китайского стартапа Deepseek, который, как сообщается, использовал модели OpenAI для разработки собственных систем, в том числе R1, с помощью процесса, известного как «дистилляция». Deepseek не прокомментировал эти обвинения.

По данным Financial Times, в ответ на это OpenAI ограничила доступ к конфиденциальной информации, ввела биометрический контроль доступа и новые правила разделения данных. Один из основных шагов: внутренние системы отключаются от сети, если не получают явного разрешения на доступ к интернету. Эта мера призвана защитить весовые коэффициенты моделей от несанкционированной утечки.

Теперь сотрудникам разрешён доступ только к тем проектам, на которые у них есть специальное разрешение. Эта практика известна как «информационное разделение». Например, только коллеги, которым был предоставлен доступ, могли обсуждать проект с теми, кто работал над новой на тот момент моделью «o1» под кодовым названием «Strawberry».

Также были усилены меры физической безопасности. В центрах обработки данных теперь действуют более строгие правила доступа, а компания OpenAI наняла экспертов по безопасности с военным прошлым, в том числе Дэйна Стаки (ранее работавшего в Palantir) и отставного американского генерала Пола Накасоне.

Американские компании в сфере ИИ усиливают меры безопасности на фоне опасений Китая

В OpenAI заявляют, что эти изменения являются частью более масштабных инвестиций в безопасность, а не ответом на конкретный инцидент. Компания также реагирует на предупреждения официальных лиц США о росте промышленного шпионажа со стороны иностранных субъектов, в частности Китая.

Недавно OpenAI и Anthropic предупредили правительство США о модели R1 от Deepseek, сославшись на риски, связанные с вмешательством государства и широким доступом к данным. OpenAI обновила свою систему готовности для более систематического отслеживания возможностей с высоким уровнем риска, таких как автономное копирование и кибератаки, с использованием более строгих критериев и автоматизированного тестирования.

В глобальной гонке ИИ кража технологий становится всё более серьёзной угрозой для национальной и экономической безопасности. Сообщается, что Китай ввёл неофициальные ограничения на поездки для специалистов в области ИИ, посоветовав им без крайней необходимости не ездить в США и страны-союзники. В связи с этими более масштабными опасениями сотрудники Deepseek, как сообщается, обязаны сдать свои паспорта и больше не могут свободно выезжать за пределы Китая.

Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Перевод, источник новости здесь.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии