OpenAI поставляет GPT-4.1 без отчета о безопасности

В понедельник OpenAI запустила новое семейство моделей AI, GPT-4.1, которое, по словам компании, превзошло некоторые из ее существующих моделей на определенных тестах, в частности, в тестах программирования. Однако GPT-4.1 не поставлялся с отчетом по безопасности, который обычно сопровождает выпуски моделей OpenAI, известные как модель или системная карта.

По состоянию на утро вторника OpenAI еще не опубликовала отчет по безопасности для GPT-4.1 — и, похоже, не планирует этого делать. В заявлении для TechCrunch представитель OpenAI Шаокьи Амдо сказал, что «GPT-4.1 не является пограничной моделью, поэтому для нее не будет выпущена отдельная системная карта».

Довольно стандартно, что лаборатории AI публикуют отчеты по безопасности, показывающие типы тестов, которые они провели внутри компании и с участием сторонних партнеров для оценки безопасности конкретных моделей. Иногда в этих отчетах раскрывается нелестная информация, например, что модель склонна обманывать людей или является опасно убедительной. В целом сообщество AI воспринимает эти отчеты как добросовестные усилия лабораторий AI по поддержке независимых исследований и Red Teaming.

Но за последние несколько месяцев ведущие лаборатории AI, похоже, снизили свои стандарты отчетности, что вызвало негативную реакцию со стороны исследователей безопасности. Некоторые, как Google, затянули с отчетами по безопасности, в то время как другие опубликовали отчеты, в которых не хватает обычных подробностей.

Недавние достижения OpenAI также не являются исключительными. В декабре компания подверглась критике за публикацию отчета по безопасности, содержащего результаты тестов для модели, отличающейся от версии, которую она развернула в производстве. В прошлом месяце OpenAI запустила модель, deep research, за несколько недель до публикации системной карты для этой модели.

Стивен Адлер, бывший исследователь безопасности OpenAI, отметил в интервью TechCrunch, что отчеты о безопасности не являются обязательными по каким-либо законам или правилам — они являются добровольными. Тем не менее, OpenAI взяла на себя несколько обязательств перед правительствами по повышению прозрачности своих моделей. В преддверии саммита по безопасности AI в Великобритании в 2023 году OpenAI в своем блоге назвала системные карты ключевой частью своего подхода к подотчетности. А в преддверии саммита по действиям в области AI в Париже в 2025 году OpenAI заявила, что системные карты дают ценную информацию о рисках модели.

«Системные карты — это основной инструмент индустрии AI для обеспечения прозрачности и описания того, какие испытания безопасности были проведены», — сказал Адлер TechCrunch в электронном письме.

«Сегодняшние нормы и обязательства по прозрачности в конечном итоге являются добровольными, поэтому каждая компания AI сама решает, выпускать ли системную карту для определенной модели и когда это делать».

GPT-4.1 поставляется без системной карты в то время, когда нынешние и бывшие сотрудники выражают обеспокоенность по поводу мер безопасности OpenAI. На прошлой неделе Адлер и 11 других бывших сотрудников OpenAI подали предлагаемое заключение amicus в деле Илона Маска против OpenAI, утверждая, что коммерческий OpenAI может сократить работу по обеспечению безопасности. Financial Times недавно сообщила, что производитель ChatGPT, подстегиваемый конкурентным давлением, сократил количество времени и ресурсов, выделяемых им тестировщикам безопасности.

Хотя самая мощная модель в семействе GPT-4.1, GPT-4.1, не является самой производительной в списке OpenAI, она действительно обеспечивает существенный прирост в отделах эффективности и задержки. Томас Вудсайд, соучредитель и аналитик политики Secure AI Project, сказал TechCrunch, что улучшения производительности делают отчет о безопасности еще более важным. Чем сложнее модель, тем выше риск, который она может представлять, сказал он.

Многие лаборатории AI пресекли попытки кодифицировать требования к отчетности по безопасности в виде закона. Например, OpenAI выступила против законопроекта SB 1047 в Калифорнии, который потребовал бы от многих разработчиков AI проводить аудит и публиковать оценки безопасности моделей, которые они делают общедоступными.

Источник

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии