Согласно недавнему отчёту об угрозах, компания OpenAI выявила несколько международных операций, в ходе которых модели искусственного интеллекта использовались для кибератак, политического влияния и мошенничества с трудоустройством. Эта деятельность охватывает страны от Северной Кореи и России до Камбоджи.
Одна из схем мошенничества, подробно описанных в отчёте, заключалась в использовании ChatGPT для составления объявлений о приёме на работу на нескольких языках. Жертвам обещали более пяти долларов США просто за лайк в социальных сетях — сумма, намного превышающая типичные рыночные расценки, где 1000 лайков могут стоить менее десяти долларов.
Мошенники действовали в три этапа: сначала они привлекали жертв нереалистичными предложениями («пинг»), затем завоевывали доверие фальшивыми отзывами и небольшими выплатами («зинг») и, наконец, требовали деньги за якобы вступительный взнос или криптовалютные платежи («стинг»).
OpenAI сообщает, что она также пресекла российскую кампанию по влиянию, в рамках которой ChatGPT использовался для создания контента на немецком языке в преддверии федеральных выборов в Германии в 2025 году. Кампания, получившая название «Операция «Укус Гельголанда»», проводилась через Telegram-канал «Nachhall von Helgoland» и аккаунт X с более чем 27 000 подписчиков.
Китайские операции: от Тайваня до фейковых журналистов
OpenAI выявил несколько кампаний, связанных с Китаем. «Sneer Review» публиковала комментарии на геополитические темы в TikTok и X, стремясь дискредитировать критиков, таких как пакистанский активист Махранг Балох.
В ходе другой операции, «VAGue Focus», для сбора информации о западных объектах использовались поддельные аккаунты в социальных сетях. В рамках третьей кампании, «Uncle Spam», в политических дискуссиях в США появлялись противоречивые заявления, например, о торговой политике, а также использовались сгенерированные искусственным интеллектом фотографии предполагаемых ветеранов войны.
OpenAI выявил в общей сложности десять международных кампаний, в ходе которых злоумышленники использовали модели ИИ в мошеннических, политических или преступных целях.
Источник
Источник: habr.com