OpenAI создала комитет по безопасности ИИ-проектов и подтвердила, что работает над новой ИИ-моделью

OpenAI сообщает, что «недавно началось» обучение её новейшей ИИ-модели, которая станет новым этапом на пути к разработке «общего искусственного интеллекта» (AGI). Компания также сформировала новый комитет по безопасности и защите, который поможет принимать ключевые решения для проектов OpenAI. 

Как указано в посте в блоге Open AI, новая ИИ-модель «выведет компанию на следующий уровень возможностей на пути к AGI». В посте уточняется, что компания рассчитывает на «активные дебаты» об обеспечении безопасности использования систем искусственного интеллекта.

Именно для этого OpenAI учредила комитет по безопасности и защите. В его состав войдут генеральный директор компании Сэм Альтман, а также члены совета директоров Брет Тейлор, Адам Д’Анджело и Николь Селигман. Также участие в его работе примут главный научный сотрудник Open AI Якуб Пахоцки и глава службы безопасности Мэтт Найт. В качестве консультантов комитет планирует привлекать пока не названных внешних экспертов по безопасности.

«Первой задачей комитета станет оценка и дальнейшее развитие мер безопасности OpenAI. На эту задачу предусмотрено 90 дней, по истечении которых комитет  поделится своими рекомендациями со всем советом директоров. После проверки рекомендаций OpenAI поделится обновлённой информацией публично», — указано в сообщении.

В начале мая OpenAI распустила команду по устранению долгосрочных рисков ИИ (так называемую «команду superalignment»), которой руководил Ян Лейке. По мнению Лейке, «культура безопасности в компании отошли на второй план по сравнению с блестящими продуктами».

Источник: habr.com

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии