Власти смягчили требования законопроекта об использовании искусственного интеллекта: онлайн-платформы больше не будут обязаны самостоятельно проверять и удалять немаркированный ИИ-контент.
В обновленной редакции законопроекта, регулирующего применение технологий ИИ отказались от одного из наиболее спорных положений — обязанности интернет-платформ самостоятельно контролировать наличие маркировки у контента, созданного при помощи нейросетей. Ранее предполагалось, что сайты с авторским контентом, включая соцсети и другие цифровые площадки, должны будут проверять, отмечены ли тексты, фотографии и видеоролики как созданные с использованием ИИ. Если соответствующая пометка отсутствовала, платформы фактически обязывались удалять такие материалы.
Бизнес и отраслевые объединения раскритиковали это положение. Представители ТПП, крупные компании и профессиональные ассоциации указывали, что реализовать подобное требование на практике невозможно. По их мнению, у платформ отсутствуют инструменты, позволяющие достоверно и автоматически определять происхождение контента. Дополнительное беспокойство вызывала перспектива штрафов и иных санкций за невыполнение норм, что могло бы привести к серьезным финансовым потерям для бизнеса.
После консультаций с представителями отрасли подход был пересмотрен. Как сообщили в аппарате вице-премьера Дмитрия Григоренко, в действующей версии документа ответственность за машиночитаемую маркировку аудиовизуальных материалов, созданных при помощи ИИ, возлагается уже не на платформы, а на владельцев самих ИИ-сервисов. При этом конкретные случаи, когда маркировка станет обязательной, в дальнейшем определит правительство.
В Минцифры подчеркивают, что закон об использовании ИИ должен носить прежде всего рамочный характер. По мнению ведомства, детали регулирования следует закреплять в отраслевых законах с учетом особенностей отдельных сфер.
В АНО «Цифровая экономика» пояснили, что теперь ответственность за наличие или отсутствие маркировки фактически ложится на автора конкретного материала. Там считают, что сама маркировка выгодна создателям контента, поскольку речь идет не только о соблюдении формальных требований, но и о вопросах репутации и доверия аудитории. Пользователи должны понимать, какой материал был создан человеком, а какой — с помощью алгоритмов ИИ. Такая открытость способна укреплять доверие к автору и формировать более лояльную аудиторию.
Эксперты также отмечают, что прежняя редакция закона фактически требовала от цифровых платформ проводить тотальную проверку каждого опубликованного фото, текста или видео на предмет использования ИИ. Однако в индустрии подчеркивают: технологий, способных в автоматическом режиме надежно выявлять искусственно сгенерированный контент в массовом объеме, сегодня не существует. Попытка заменить автоматическую проверку ручной модерацией потребовала бы колоссальных затрат и значительного расширения штата сотрудников.
Источник, близкий к правительству, сообщил «Известиям», что ключевая цель корректировки законопроекта заключается именно в снижении нагрузки на бизнес и предотвращении чрезмерного регулирования цифровой отрасли. Корпоративная ИТ-система после запуска Что скрывается за зелеными показателями SLA Корпоративный мессенджер для вашей компании: редакция IT-World тестирует Битрикс24
Источник: www.it-world.ru