Создатели платформы GitHub для совместной разработки кода, принадлежащей компании Microsoft, столкнулись с довольно неожиданной и не самой приятной ситуацией — бурный рост использования искусственного интеллекта в программировании обернулся низкокачественными результатами. Telegram-канал создателя Трешбокса про технологии
На прошлой неделе менеджер по продуктам Камилла Мораес инициировала обсуждение, в котором рассказала, что сейчас сопровождающим open-source-проектов приходится тратить массу времени на разбор запросов на слияние и отчётов об ошибках, не соответствующих принятым стандартам. Нередко такие запросы и отчёты создаются искусственным интеллектом. «Мы получаем от вас сообщения о том, что вы тратите большое количество времени на проверку материалов, которые не соответствуют стандартам качества проекта по ряду причин: они не отвечают руководящим принципам проекта, часто отбрасываются вскоре после отправки и нередко создаются с помощью искусственного интеллекта», — написала Мораес.
Сейчас с целью решения возникшей проблемы платформа рассматривает несколько сценариев развития. Сопровождающие проектов могут получить возможность полностью отключать запросы на слияния или ограничивать их только участниками этих проектов. Также может появиться возможность удалять запросы из интерфейса без необходимости просматривать ошибки или детальные настройки разрешений для создания и проверки запросов на слияние.
Озвученную проблему подтвердили несколько участников дискуссии — они заявили, что работа с исходным кодом и комментариями, сгенерированными искусственным интеллектом, стала довольно насущной проблемой.
По словам Ксавье Портильи Эдо, руководителя отдела облачной инфраструктуры Voiceflow и члена основной команды Genkit, «только 1 из 10 запросов на слияние, созданных с помощью ИИ, является легитимным и соответствует стандартам, необходимым для открытия такого запроса».
Цзясяо Чжоу, инженер-программист из команды Microsoft Azure Container Upstream и сопровождающий проектов Runwasi и SpinKube в Containerd, в дискуссии, открытой Камиллой Мораес, ответил менеджеру по продуктам GitHub на вопрос о том, как отправка кода с использованием ИИ влияет на сопровождающих проектов с открытым исходным кодом. «Мы собрали внутреннее совещание и обсудили вопрос использования искусственного интеллекта при программировании. Проблема заключается в том, что сопровождающие чувствуют себя зажатыми между строгим регламентом и будущим, когда код, сгенерированный ИИ-агентами или искусственным интеллектом, сделает модель проверки более неустойчивой», — написал Чжоу.
Свои опасения Чжоу изложил в нескольких пунктах: сопровождающие теперь не могут предположить, понимают ли авторы написанный ими код, или был ли он написан человеком; сгенерированный исходный код может выглядеть правильным с точки зрения структуры, но абсолютно неверными или небезопасным с точки зрения логики; построчная проверка кода до сих пор является обязательным условием, но вызывает проблемы при проверки большого объёма кода, созданного ИИ; сопровождающие испытывают дискомфорт, когда одобряют на слияние запросы, в которых не совсем разбираются; повышается когнитивная нагрузка: рецензенты должны не только изучать код, но и разбираться, кто его создал — человек или машина; из-за внедрения ИИ выросла нагрузка на саму платформу.
По мнению Натана Брейка, инженера по машинному обучению в Mozilla.ai, сейчас сообществу открытого исходного кода необходимо понять, как сохранить стимулы для участия в те времена, когда искусственный интеллект выполняет работу по программированию, а человек лишь пишет описание проблемы.
При этом практически все специалисты отрасли уверены, что внедрение ИИ-агентов лишь усугубило ситуацию, когда речь заходит именно о платформе GitHub. Как решится проблема в популярном репозитории, станет известно чуть позже, когда о решении расскажут её создатели.
Источник: trashbox.ru