OpenAI сообщает, что «недавно началось» обучение её новейшей ИИ-модели, которая станет новым этапом на пути к разработке «общего искусственного интеллекта» (AGI). Компания также сформировала новый комитет по безопасности и защите, который поможет принимать ключевые решения для проектов OpenAI.
Как указано в посте в блоге Open AI, новая ИИ-модель «выведет компанию на следующий уровень возможностей на пути к AGI». В посте уточняется, что компания рассчитывает на «активные дебаты» об обеспечении безопасности использования систем искусственного интеллекта.
Именно для этого OpenAI учредила комитет по безопасности и защите. В его состав войдут генеральный директор компании Сэм Альтман, а также члены совета директоров Брет Тейлор, Адам Д’Анджело и Николь Селигман. Также участие в его работе примут главный научный сотрудник Open AI Якуб Пахоцки и глава службы безопасности Мэтт Найт. В качестве консультантов комитет планирует привлекать пока не названных внешних экспертов по безопасности.
«Первой задачей комитета станет оценка и дальнейшее развитие мер безопасности OpenAI. На эту задачу предусмотрено 90 дней, по истечении которых комитет поделится своими рекомендациями со всем советом директоров. После проверки рекомендаций OpenAI поделится обновлённой информацией публично», — указано в сообщении.
В начале мая OpenAI распустила команду по устранению долгосрочных рисков ИИ (так называемую «команду superalignment»), которой руководил Ян Лейке. По мнению Лейке, «культура безопасности в компании отошли на второй план по сравнению с блестящими продуктами».
Источник: habr.com