После нескольких месяцев обсуждений и споров разработчики ядра Linux наконец утвердили официальные правила работы с кодом, который был сгенерирован ИИ. Обновлённая политика, одобренная Линусом Торвальдсом (Linus Torvalds), разрешает вносить правки с помощью ИИ, но вводит жёсткие требования к прозрачности и юридической ответственности.
Главное изменение касается маркировки коммитов и если раньше разработчики использовали тег Signed-off-by (Подписано…), который имел юридическую силу и подтверждал авторство. Теперь для кода, написанного при помощи нейросетей, этот тег запрещён и вместо него нужно ставить Assisted-by (При участии…). Если человек не сам написал код, а только правил или дополнял то, что сгенерировала машина, это должно быть сразу видно, при этом вся ответственность за работоспособность, безопасность и возможные нарушения лицензий ложится исключительно на разработчика, который отправил правки. Это особенно актуально что в создании ядра Linux7.0 активно принимал участие ИИ.
![]()
Новые правила использования ИИ в Linux
Линус Торвальдс, известный своим прямолинейным подходом, довольно быстро закрыл дискуссию о полном запрете ИИ-кода. По его мнению, такие попытки — пустое позёрство. Злоумышленники или просто недобросовестные разработчики всё равно не читают документацию, а хорошие специалисты не должны страдать из-за ограничений. ИИ — это просто ещё один инструмент, как компилятор или редактор кода и гораздо важнее контролировать результат и наказывать тех, кто отправляет сломанный или вредоносный код, независимо от того, как он был создан. Однако внутри open-source-сообщества единства нет. Некоторые крупные проекты пошли другим путём. Дистрибутив Gentoo и Unix-подобная система NetBSD полностью отказались принимать код, созданный нейросетями. Разработчики этих проектов указывают на неясный правовой статус: языковые модели обучаются на огромных массивах чужих данных, включая код под разными лицензиями. Никто не может гарантировать, что сгенерированный фрагмент не нарушает авторские права.
Новая политика призвана бороться с тем, что в сообществе уже прозвали «AI slop» — потоками низкокачественного, галлюцинирующего кода, который нейросети генерируют с высокой скоростью, но с низким качеством. Из-за таких правок страдают реальные проекты. Например, создатель утилиты cURL был вынужден закрыть программу по поиску ошибок (bug bounty), потому что его завалили бессмысленными отчётами, сгенерированными нейросетями.
![]()
ИИ пишет код уже в большом количестве IT-компаний
Последней каплей, которая ускорила принятие правил, стала история с инженером NVIDIA и разработчиком ядра Linux, которые отправили патч для ядра версии 6.15, который был полностью написан нейросетью, включая текст изменений, при этом без указания участия ИИ. Патч формально работал и даже прошёл предварительное тестирование, но позже выяснилось, что он снижает производительность системы. Причём, как признал сам Торвальдс, код протестировали недостаточно тщательно именно потому, что никто не знал о его происхождении.
Как вы считаете, сможет ли новая маркировка реально защитить проекты от потока некачественного ИИ-кода или недобросовестные разработчики всё равно будут скрывать использование нейросетей? Делитесь мнением в комментариях.
PC НовостиЖелезо и технологииLinuxОС и программыискусственный интеллект
Источник: vgtimes.ru