Вчера OpenAI представила модели o1, демонстрирующие улучшенные возможности логического мышления, решения сложных математических задач и ответов на научные вопросы.
Согласно внутренней оценке OpenAI, новые модели получили «средний» уровень риска в отношении химического, биологического, радиологического и ядерного оружия. Это самый высокий уровень риска когда-либо присваиваемый моделям компании, и он свидетельствует о возросшей вероятности использования ИИ для разработки биологического оружия.
Ведущий эксперт по искусственному интеллекту, профессор Монреальского университета Йошуа Бенджио, подчеркнул, что присвоение новым моделям OpenAI «среднего» уровня риска в контексте разработки химического и биологического оружия подтверждает острую необходимость в принятии законодательных мер. В качестве примера Бенджио привел законопроект SB 1047, рассматриваемый в Калифорнии. Этот законопроект обязывает разработчиков продвинутых моделей ИИ минимизировать риски их использования для создания биологического оружия.
Бенджио предупреждает: по мере того, как ИИ приближается к уровню человеческого интеллекта растут и риски, связанные с его использованием. Особенно опасным, по его мнению, становится развитие способностей ИИ к логическому мышлению и обману, которые могут быть использованы злоумышленниками. Эти опасения звучат особенно актуально на фоне острой конкуренции между технологическими гигантами.
Мира Мурати, технический директор OpenAI, подчеркнула, что компания крайне осторожно подходит к выпуску новой модели o1 из-за её исключительных возможностей. Мурати также отметила, что модель прошла тщательное тестирование экспертами из разных областей науки, которые изучали её возможности и выявляли потенциальные уязвимости. По её словам, новые модели демонстрируют значительный прогресс в области безопасности по сравнению с предыдущими версиями.
Источник
Источник: habr.com