Несмотря на ограничения со стороны владельцев языковых моделей, злоумышленники все равно могут создавать десятки тысяч вариантов вредоносного ПО.
Эксперты в области кибербезопасности обнаружили, что большие языковые модели, известные как LLM, способны создавать новый вредоносный код, который избежит практически любых способов обнаружения. При этом сам искусственный интеллект с трудом пишет подобные программы из-за установленных защитных ограничений, но зато может без проблем перерабатывать уже существующие вирусы, пока они не станут «чистыми».
По сути, технология машинного обучения трансформирует вредоносное ПО с помощью различных методов: изменения переменных, разделения строк, вставки лишнего кода и удаления проблемных символов. На выходе получаются гораздо более естественные программы, которые не привлекают столько внимания со стороны защиты.
Интересно, что компания OpenAI только за последнее время заблокировала около 20 операций злоумышленников, которые пытались использовать ее платформу для разведки, поиска уязвимости и отладки скриптов. Но эти случаи — только вершина айсберга. По мнению экспертов, сейчас любой может использовать LLM для обхода обнаружения и создавать более 10 000 вариантов кода без изменения его функциональности.
Источник: hi-tech.mail.ru