Глава OpenAI подтвердил опасения экспертного сообщества по поводу рисков создания биологического оружия с помощью ChatGPT. Речь идёт о возможности воспроизводства известных биоугроз, а не о создании новых, потому что для этого всё равно необходимы предметные знания..
Глава OpenAI Сэм Альтман подчеркнул, что новое поколение моделей ИИ может и увеличить, и ускорить риск воспроизводства биологического оружия без научного опыта. OpenAI ожидает, что их модели достигнут высокого риска в рамках внутренней системы готовности компании. Вероятно, неслучайно Пентагон нанял Альтмана и других глав ИИ-компаний как специалистов в звании подполковников.
По оценкам главы отдела безопасности OpenAI, преемники текущей модели (o3) достигнут этого уровня. Компания якобы усиливает тестирование безопасности для минимизации риска создания биологического оружия. В OpenAI опасаются, что новые ИИ-модели могут повысить уровень знаний новичков и позволят им создавать опасное оружие.
Источник: www.ferra.ru