Золотая лихорадка в сфере оборонных технологий реальна: новые правительственные ИИ-модели от Anthropic

Компания Anthropic только что сообщила о создании специальных моделей ИИ для клиентов из сферы национальной безопасности США, и они уже используются на «самом высоком уровне» секретных правительственных операций.

Эта новость важна, потому что она завершает удивительную трансформацию всей индустрии ИИ. Всего 18 месяцев назад OpenAI запретила любое военное использование своей технологии. Сегодня её модели отправляются на настоящие поля сражений благодаря партнёрству с оборонным подрядчиком Anduril. Теперь Anthropic, которая долгое время считалась более осторожной и ориентированной на безопасность альтернативой OpenAI, открыто выходит на оборонный рынок с моделями Claude Gov.

Денежный след

Выбор времени не случаен. Компания Anthropic готовится привлечь новое финансирование при потенциальной оценке в 40 миллиардов долларов, а государственные контракты представляют собой один из немногих надёжных способов получения крупного дохода от ИИ, который не ограничивается продажей подписок на чат-боты потребителям.

Одна только интеллектуальная система Maven от Palantir стоит для Пентагона более 1 миллиарда долларов, и это только одна программа. Компания Scale AI только что заключила многомиллионную сделку на «флагманскую» программу Пентагона по созданию ИИ-агентов. Рынок оборонных технологий, в который венчурные компании к 2021 году вложили более 40 миллиардов долларов, теперь приносит прибыль, в которой отчаянно нуждаются компании, занимающиеся ИИ.

Что делает заявление Anthropic особенно значимым, так это то, о чём компания умалчивает. По словам компании, модели Claude Gov «улучшают работу с секретными материалами, поскольку при работе с секретной информацией модели реже отклоняют запросы». Перевод: для государственных пользователей были убраны защитные механизмы, которые не позволяли обычному Claude обсуждать определённые темы.

Это очень важно. Средства защиты ИИ предназначены для предотвращения создания моделями вредоносного, предвзятого или опасного контента. Когда Anthropic говорит, что его правительственные модели «отказываются от меньшего количества», это означает, что работа в сфере национальной безопасности требует ИИ, способного работать с деликатными темами, к которым потребительские модели не обращаются.

Играем в догонялки

Предыдущая работа Anthropic с государственными органами осуществлялась в рамках партнёрства с Palantir и AWS, что, по сути, делало её субподрядчиком. Эти новые модели Claude Gov предполагают, что компания хочет продавать напрямую государственным учреждениям, а не через посредников, и получать больше прибыли.

Компании опаздывают на эту вечеринку. OpenAI активно добивается контрактов с Пентагоном, недавно наняв руководителей службы безопасности из Palantir и полностью изменив свою позицию в отношении военного применения. Meta* разрешила использовать свои модели Llama в военных целях. Даже компании, традиционно ориентированные на корпоративный сектор, гонятся за оборонными контрактами.

Но подход Anthropic отличается одним важным аспектом: прозрачностью в отношении компромиссов в плане безопасности. В то время как другие компании незаметно ослабили свои ограничения, Anthropic открыто заявляет, что её правительственные модели работают по другим правилам. Поможет ли такая честность в долгосрочной перспективе или навредит, ещё предстоит увидеть.

Общая картина

Дело не только в смене политики одной компании. Недавно Anthropic убрала с своего веб-сайта несколько обязательств по обеспечению безопасности ИИ, принятых в эпоху Байдена, что свидетельствует о более масштабной перестройке по мере того, как отрасль адаптируется к другому подходу администрации Трампа к регулированию ИИ.

Быстрая милитаризация компаний, работающих в сфере ИИ, отражает простую реальность: создание больших языковых моделей обходится дорого, а государственные контракты хорошо оплачиваются. Такие компании, как Anthropic, стремятся получить аккредитацию FedRAMP, чтобы упростить продажу государственных заказов, рассматривая национальную безопасность как вертикальный рынок, подобный финансовому или медицинскому.

Для более широкой технологической отрасли заявление Anthropic подтверждает, что эпоха, когда компании, работающие с ИИ, избегали оборонных заказов, закончилась. Теперь вопрос не в том, будет ли ИИ использоваться в сфере национальной безопасности, а в том, какие компании будут доминировать на этом рынке и насколько они будут готовы поступиться своими первоначальными принципами безопасности, чтобы получить эти контракты.

В Anthropic утверждают, что их модели «прошли такое же тщательное тестирование на безопасность, как и все наши модели Claude», но когда эти модели предназначены для «отказа от меньшего количества» в секретных условиях, возникают вопросы о том, что означает «безопасность», когда на кону миллиарды долларов.

*Meta и её продукты (Instagram, Facebook) запрещены на территории Российской Федерации

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
1
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии