Anthropic запретила использовать свой ИИ для создания ядерного оружия

Anthropic обновила политику использования чат-бота Claude, усилив ограничения. Теперь прямо запрещено применять ИИ для разработки биологического, химического, радиационного или ядерного оружия, а также мощных взрывчатых веществ. Ранее в правилах говорилось лишь о запрете на создание оружия и опасных материалов в целом. Теперь список стал более конкретным

В мае, вместе с запуском модели Claude Opus 4, компания внедрила уровень защиты AI Safety Level 3. Он делает систему сложнее для «взлома» и предотвращает её использование при попытках разработки оружия массового поражения.

Anthropic также усилила правила по кибербезопасности. Новый раздел политики прямо запрещает использовать Claude для взлома компьютеров и сетей, поиска уязвимостей, создания вирусов, программ для DDoS-атак и других киберугроз.

Есть и послабления: компания смягчила правила по политическому контенту. Теперь запрет касается только случаев, когда ИИ используется для обмана, вмешательства в выборы или таргетинга избирателей.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии