Пароли, созданные с помощью ИИ, выглядят надежными, но таковыми не являются.
Американские специалисты в сфере кибербезопасности из Irregular призвали пользователей всего Интернета не использовать ИИ для создания паролей. Их можно взломать за пару часов.
Эксперты протестировали ChatGPT, Google Gemini, Claude и другие популярные чат-боты. Нейросетям дали задание — сгенерировать надежный пароль с обозначенным количеством символов, наличием цифр, маленьких и больших букв, а также специальных символов.
Сначала эксперимент шел хорошо — каждый созданный ИИ пароль набирал 100 баллов в калькуляторе энтропии паролей, что является очень хорошим результатом. Однако уже после пятидесятой генерации все чат-боты начали создавать пароли по схожей схеме. Специалисты сразу заметили закономерности, по которым ИИ следуют, чтобы создать новый пароль.
Некоторые последующие пароли от ИИ содержали даже одинаковые начала или схожие паттерны составления. Простыми словами, ИИ создают пароль не из случайных символов — для чат-ботов вообще не свойственно делать что-то случайно, так как это заранее спрограммированный алгоритм. Это не проблема ИИ, а лишь особенность работы больших языковых моделей.
По данным Irregular, из 50 полученных паролей только 30 были уникальными (20 дубликатов, 18 из которых представляли собой одну и ту же строку), и подавляющее большинство начиналось и заканчивалось одними и теми же символами. Компания также заявила, что ни в одном из 50 паролей не было повторяющихся символов, что указывает на то, что они не были по-настоящему случайными.
Источник: hi-tech.mail.ru