OpenAI преобразует свой Комитет по безопасности и защите в независимый «Комитет по надзору совета директоров», который имеет полномочия задерживать запуск моделей из-за опасений по безопасности, согласно блогу OpenAI. Комитет дал рекомендацию создать независимый совет после недавнего 90-дневного обзора «процессов и мер безопасности» OpenAI.
Комитет, возглавляемый Зико Колтером и включающий Адама Д’Анджело, Пола Накасоне и Николь Селигман, «будет получать брифинги от руководства компании об оценках безопасности для крупных выпусков моделей и будет, вместе с полным составом совета директоров, осуществлять надзор за запусками моделей, включая полномочия задерживать выпуск до тех пор, пока проблемы безопасности не будут решены», сообщает OpenAI. Полный совет директоров OpenAI также будет получать «периодические брифинги» по «вопросам безопасности и защиты».
Члены комитета по безопасности OpenAI также являются членами более широкого совета директоров компании, поэтому неясно, насколько независим этот комитет на самом деле и как структурирована эта независимость.
Создавая независимый совет по безопасности, OpenAI, похоже, принимает подход, несколько схожий с Наблюдательным советом Meta, который рассматривает некоторые решения Meta (признана в России экстремистской организацией, и её деятельность запрещена) по политике контента и может принимать постановления, которым Meta (признана в России экстремистской организацией, и её деятельность запрещена) должна следовать. Ни один из членов Наблюдательного совета не входит в совет директоров Meta.
Обзор, проведенный Комитетом по безопасности и защите OpenAI, также помог выявить «дополнительные возможности для сотрудничества в отрасли и обмена информацией для повышения безопасности индустрии ИИ». Компания также заявляет, что будет искать «больше способов делиться и объяснять нашу работу по безопасности» и «больше возможностей для независимого тестирования наших систем».
Источник: habr.com