OpenAI пресекла более 20 вредоносных киберопераций, в которых чат-бот ChatGPT использовался для отладки и разработки вредоносного ПО, распространения дезинформации, уклонения от обнаружения и проведения фишинговых атак.
Пример электронного письма TA547, авторы которого выдают себя за за немецкую розничную компанию Metro
Отчёт о вредоносных операциях с начала года впервые раскрывает, как инструменты генеративного ИИ используются для улучшения киберопераций.
Первые признаки такой активности были зарегистрированы Proofpoint в апреле, которая заподозрила хакеров TA547 (Scully Spider) в развёртывании загрузчика PowerShell, написанного ИИ, для конечной полезной нагрузки, инфостилера Rhadamanthys.
В прошлом месяце исследователи HP Wolf сообщили, что киберпреступники, нацеленные на французских пользователей, использовали инструменты ИИ для написания скриптов, используемых в рамках многоступенчатой цепочки заражения устройств.
Отчёт OpenAI подтверждает злоупотребление ChatGPT, рассказывая о случаях, когда китайские и иранские злоумышленники использовали его для повышения эффективности своих операций.
Компания рассказала о китайской группировке SweetSpecter, которую обнаружили аналитики Cisco Talos в ноябре 2023 года. Она занимается кибершпионажем, нацеленным на азиатские правительства. SweetSpecter отправляла фишинговые письма с вредоносными вложениями ZIP, замаскированными под запросы на поддержку, на личные адреса электронной почты сотрудников OpenAI. При открытии вложения запускалась цепочка заражения, что приводило к тому, и вредонос SugarGh0st RAT попадал в систему жертвы.
При дальнейшем расследовании OpenAI обнаружила, что SweetSpecter использовала кластер учётных записей ChatGPT, которые выполняли скриптинг и анализ уязвимостей с помощью инструмента LLM.
Злоумышленники использовали ChatGPT для следующих запросов:
Второй случай касается группы CyberAv3ngers, связанной с Корпусом стражей исламской революции (КСИР) иранского правительства. Она известна атаками на промышленные системы в критически важных инфраструктурных объектах в западных странах.
OpenAI сообщает, что аккаунты, связанные с этой группой, просили ChatGPT создать учётные данные по умолчанию в широко используемых программируемых логических контроллерах (ПЛК), разработать пользовательские скрипты bash и Python и скрыть код.
Иранские хакеры также использовали ChatGPT для планирования своей деятельности после взлома, изучения того, как использовать определённые уязвимости, и выбора методов кражи паролей пользователей в системах macOS, как указано ниже.
Третий случай, отмеченный в отчёте OpenAI, касается Storm-0817, также иранских злоумышленников. Сообщается, что группа использовала ChatGPT для отладки вредоносного ПО, создания скрапера Instagram**, перевода профилей LinkedIn на персидский язык и разработки собственного вредоносного ПО для платформы Android вместе с поддерживающей инфраструктурой управления и контроля, как указано ниже.
Вредоносное ПО, созданное с помощью чат-бота OpenAI, может красть списки контактов, журналы вызовов и файлы, хранящиеся на устройстве, делать снимки экрана, изучать историю просмотров пользователя и определять его точное местоположение.
«Параллельно с этим STORM-0817 использовал ChatGPT для поддержки разработки серверного кода, необходимого для обработки подключений со взломанных устройств. Это позволило нам увидеть, что сервер управления и контроля для этого вредоносного ПО представляет собой настройку WAMP (Windows, Apache, MySQL и PHP/Perl/Python) и во время тестирования использовал домен stickhero[.]pro», — говорится в отчёте OpenAI.
Все учётные записи OpenAI, используемые указанными выше злоумышленниками, были заблокированы, а связанные с ними индикаторы взлома, включая IP-адреса, были переданы партнёрам по кибербезопасности.
Хотя ни один из описанных выше случаев не дает злоумышленникам новых возможностей в разработке вредоносного ПО, они являются доказательством того, что инструменты генеративного ИИ могут сделать наступательные операции более эффективными для низкоквалифицированных злоумышленников, помогая им на всех этапах — от планирования до исполнения.
Ранее исследователь безопасности Йоханн Ребергер сообщил об уязвимости в ChatGPT, которая позволяла злоумышленникам хранить ложную информацию и вредоносные инструкции в настройках долговременной памяти. Теперь он создал эксплойт для проверки концепции, в рамках которого использовал уязвимость для извлечения пользовательских данных.
Meta Platforms*, а также принадлежащие ей социальные сети Facebook** и Instagram**:*признана экстремистской организацией, её деятельность в России запрещена;**запрещены в России.
Источник: habr.com