Этот ИИ опаснее, чем мы думали»: Anthropic признала, что Mythos Preview нельзя выпускать для всех

Anthropic представила новую разработку — Claude Mythos Preview, но в отличие от предыдущих версий, эту модель не станут выкладывать в открытый доступ. Её возможности в области кибербезопасности оказались настолько высокими, что разработчики решили ограничить круг пользователей.

Mythos Preview уже сейчас находит критические уязвимости там, где их не замечали десятилетиями. Например, модель обнаружила 27-летнюю дыру в безопасности операционной системы OpenBSD (считается одной из самых защищённых) и 16-летнюю проблему в популярном кодировщике видео FFmpeg. Причём в последнем случае автоматические тесты прогоняли этот участок кода пять миллионов раз и ничего не нашли. Кроме того, ИИ смог скомбинировать несколько уязвимостей в ядре Linux, чтобы получить полный контроль над машиной, стартуя с обычных пользовательских прав. Всего модель уже выявила тысячи ранее неизвестных проблем во всех основных операционных системах и веб-браузерах.

Компании получившие доступ к передовой ИИ-модели

Компании получившие доступ к передовой ИИ-модели

Проблема в том, что те же самые навыки можно использовать не только для защиты, но и для атак. Если раньше для поиска и эксплуатации уязвимостей требовались глубокие технические знания и годы опыта, то Mythos Preview автоматизирует этот процесс. Причём делает это на уровне, который превосходит всех людей, кроме самых квалифицированных специалистов. Поэтому Anthropic запустила проект Glasswing — коалицию с крупными технологическими компаниями, включая Google, Apple, Microsoft, NVIDIA, Amazon, Cisco, CrowdStrike и другими. Только эти партнёры получат доступ к Mythos Preview и смогут использовать его для укрепления собственной инфраструктуры и поиска уязвимостей в критически важном ПО.

Anthropic выделила 100 миллионов долларов в виде кредитов на использование модели для участников проекта, а после того как партнёры израсходуют кредиты, они смогут продолжить работу на платной основе. Ранее разработчик систем защиты от ИИ-террора покинул Anthropic со словами «мир в опасности».

Сравнение модели с предыдущей версии

Массового релиза не планируется, в Anthropic заявляют, что их конечная цель — научиться безопасно разворачивать модели класса Mythos, но для этого сначала нужно разработать надёжные механизмы защиты, которые блокируют опасные сценарии использования. Ранее компания выпустила мощную модель Opus 4.6.

Как вы считаете, правильно ли поступают разработчики, оставляя такие мощные инструменты только для узкого круга корпораций, или это создаёт риск монополии на технологии кибербезопасности? Делитесь мнением в комментариях.

НовостиЖелезо и технологииискусственный интеллект

Источник: vgtimes.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии