Сотрудники OpenAI пожаловались в Комиссию по ценным бумагам и биржам (SEC) на работодателя за препятствование предупреждению регулирующих органов о серьёзных рисках, которые представляет искусственный интеллект для человечества. Инициаторы обращения призвали регулятор провести расследование, пишет Washington Post.
Информаторы сообщили, что OpenAI заключила с сотрудниками чрезмерно ограничительные соглашения о найме, выходном пособии и неразглашении. Нарушения могли привести к штрафам. Такие договоры требовали от работников получения предварительного согласия компании на раскрытие информации федеральным органам.
В письме к SEC инициаторы пишут, что эти чрезмерно широкие соглашения нарушают давно существующие федеральные законы и правила, защищающие информаторов, которые желают раскрыть компрометирующую информацию о своём работодателе анонимно и без риска возмездия.
Вряд ли ИИ-компании способны создавать технологии, которые будут безопасными и отвечать общественным интересам, если они ограждают себя от пристального внимания и инакомыслия, поделился один из информаторов.
Представитель OpenAI Ханна Вонг заявила, что политика компании в отношении осведомителей защищает права сотрудников на безопасное раскрытие информации. В OpenAI считают, что активное обсуждение этой технологии имеет важное значение, продолжила Вонг. По её словам, компания уже внесла важные изменения в процедуру ухода, чтобы исключить дискредитирующие условия.
Строгие договоры о конфиденциальности технологических компаний давно раздражают работников и регулирующие органы, отмечают в WP. Подобные соглашения ограничивают возможности персонала сообщать о сексуальных домогательствах или расовой дискриминации.
Регуляторы указывают, что условия заставляют замолчать технических сотрудников, которые могут предупредить о неправомерных действиях в непрозрачном технологическом секторе. Особенно это чувствительно на фоне утверждений, что алгоритмы компаний продвигают контент, подрывающий выборы, общественное здравоохранение и безопасность детей.
Быстрое развитие ИИ обострило обеспокоенность относительно мощи технологической отрасли и вызвало множество призывов к регулированию технологии. В США ИИ-компании в основном работают в правовом вакууме, поэтому политики не могут эффективно создавать новые правила для ИИ без помощи информаторов, которые способны объяснить потенциальные угрозы.
Источник: habr.com