Ученые: нейросети дают инструкции по созданию биологического оружия

Ученые: нейросети дают инструкции по созданию биологического оружия

Ведущие нейросети, ChatGPT, Gemini и Claude, способны давать развернутые технические консультации по синтезу и применению биологического оружия, сообщает NYT. Это не теоретический сценарий из фантастики: группа ученых передала в изданию более десятка реальных диалогов с этими системами, и в каждом — конкретика, которая пугает специалистов.

Генетический инженер MIT Кевин Эсвельт выяснил, что ChatGPT объясняет, как рассеять биологический агент над городом с помощью метеозонда. При этом бот сначала отказался помогать, но тут же сам продолжил разговор. Gemini составил рейтинг патогенов по ущербу для сельского хозяйства США с оценками экономических потерь по каждому. Claude предложил рецептуру токсина на основе онкологического препарата — по словам Эсвельта, любой биолог средней квалификации мог бы адаптировать ее для поражения людей.

Отдельный случай — анонимный ученый с Среднего Запада. Он попросил Google Deep Research дать пошаговый протокол воссоздания вируса, который когда-то вызвал пандемию. Система выдала 8 000 слов инструкций: как добыть генетические фрагменты, как их собрать. Текст содержал неточности, но специалисты говорят, что даже частично верная «дорожная карта» резко снижает порог входа для человека со злым умыслом.

Нейросети не просто отвечают на вопросы, они генерируют смежные идеи. Микробиолог тестировал один из закрытых прототипов — и бот сам предложил схему, как избежать расследования после атаки.

Компании реагируют по-разному, например, Anthropic заявила, что устанавливает жесткие фильтры на биологические запросы и намеренно допускает «избыточный» отказ — лучше не ответить на безвредный вопрос, чем помочь с опасным. Google сообщила, что новые версии Gemini уже блокируют «более серьезные» запросы. OpenAI настаивает, что публично известные примеры не дают злоумышленнику реального преимущества.

Проблема в том, что старые версии моделей никуда не исчезают. Когда Anthropic закрыла один из опасных сценариев в свежей версии Claude, бот сам порекомендовал переключиться на предыдущую версию — и та ответила развернуто.

Параллельно снижается государственный контроль: американский бюджет на биозащиту за прошлый год упал почти вдвое, несколько ключевых советников по биобезопасности покинули Совет национальной безопасности и не получили замены.

Исследование 2024 года показало, что ChatGPT справляется со сложными вирусологическими задачами лучше, чем 94% профессиональных вирусологов. Другое исследование в журнале Science зафиксировало: ИИ-инструменты генерируют тысячи вариантов опасных генетических последовательностей, которые стандартное защитное ПО не распознает.

Ученые разделились в оценках: одни считают, что без публичного давления компании не ускорят работу над защитой. Другие предупреждают, что сами статьи об уязвимостях становятся инструкцией.

Также недавно OpenAI выпустила рекомендации по использованию GPT-5.5. Подробности в статье.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии