Anthropic ограничивает доступ китайских компаний к услугам ИИ

Anthropic заблокирует свои услуги для китайских компаний, чтобы предотвратить опасности, связанные с развитием искусственного интеллекта и созданием угрозы национальной безопасности США.

Стартап из Сан-Франциско расширяет существующие ограничения для «авторитарных» режимов, распространяя их на любые структуры, контрольный пакет акций которых принадлежит компаниям из таких стран, как Китай. Это включает и зарубежные операции. Стартап добавил, что зарубежные дочерние компании могут быть использованы для доступа к технологиям Anthropic и дальнейшего военного применения.

Китайские организации «могли бы использовать наши возможности для разработки приложений и сервисов, которые в конечном итоге будут служить военным и разведывательным службам противника, а также более широким авторитарным целям», заявила Anthropic. Такие режимы «потенциально используют модели для продвижения собственных разработок ИИ с помощью таких методов, как дистилляция, и для глобальной конкуренции с проверенными технологическими компаниями со штаб-квартирами в США и странах-союзниках», отметили в компании. 

Anthropic считается одним из мировых лидеров и стоит за популярной моделью Claude. Стартап обратил внимание на то, что компании в Китае и других авторитарных странах могут быть вынуждены обмениваться данными и сотрудничать с местными разведывательными службами, в том числе через свои дочерние структуры.

Anthropic продолжит выступать за строгий экспортный контроль США, чтобы помешать таким режимам разрабатывать передовые системы ИИ, добавил стартап. «Безопасность разработки ИИ требует коллективных усилий по предотвращению его неправомерного использования авторитарными противниками», — заключили там.

Ранее Anthropic внесла изменения в политику обработки пользовательских данных. В соответствии с новыми правилами, пользователи чат-бота Claude должны решить до 28 сентября, хотят ли они разрешить использовать свои данные чатов для обучения моделей Anthropic.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии