Нельзя верить своим глазам: как злоумышленники используют нейросети

Нейросети значительно упростили нашу рутину. От развлечений до работы: мы уже привыкли к электронным помощникам. Но как получается, что искусственный интеллект помогает злоумышленникам? И есть ли способ обезопасить себя, если нейросети — везде?

Нейросети — интересный инструмент для злоумышленников

Злоумышленникам не чужд прогресс, и в некоторых ограниченных задачах они уже применяют нейросети. Например, они могут использовать искусственный интеллект для упрощения работы, расширения географии своей деятельности, повышения правдоподобности приманок (например, генерируя дипфейки) и для разработки инструментов своих злодеяний.

Некоторое время назад эксперты из Kaspersky Digital Footprint Intelligence провели исследование: выяснилось, что в даркнете и на хакерских форумах злоумышленники активно обсуждают варианты использования языковых моделей для своей деятельности и делятся своими впечатлениями о работе с ИИ.

Такое использование ИИ может показаться парадоксальным, ведь если попросить тот же ChatGPT помочь взломать что-нибудь, бот ответит, что взлом — деятельность незаконная, и откажется выполнять просьбу. Однако мошенники научились обходить «принципиальность» искусственного интеллекта.

Например, злоумышленник может обратиться к ИИ с просьбой написать очень убедительный текст мошеннического письма. Чат-бот, скорее всего, откажется от выполнения этого запроса. Это можно заметить, например, по артефактам, которые оставляют большие языковые модели на фальшивых страницах. Однако, если атакующий будет использовать определенные промпты, нейросеть может «ничего не заподозрить» и создать нужный злоумышленнику материал. Тем не менее таких «лазеек» становится все меньше — ИИ-разработчики активно развивают защитные механизмы LLM-решений.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии