Россиянам рекомендовали соблюдать важное правило при работе с нейросетями

Инцидент с утечкой данных DeepSeek показывает, как важно соблюдать осторожность при работе с нейросетями. Специалист по безопасности дал советы по защите персональной и бизнес-информации всем тем, кто часто использует ИИ.

Основное правило работы с нейросетями заключается в том, чтобы не загружать туда критически важную информацию, подчеркнул Юрий Драченин, эксперт по информационной безопасности и заместитель генерального директора компании Staffcop. Он дал этот совет в беседе с «Лентой.ру» после инцидента с утечкой данных пользователей китайской модели искусственного интеллекта DeepSeek.

IT-эксперт заявил, что вся информация, отправленная в систему искусственного интеллекта, может быть скомпрометирована, использована против владельца или даже продана. По его словам, это относится ко всем видам данных, включая бизнес-документы, коммерческие тайны, персональные сведения и даже обычные вопросы, поскольку контекст этих запросов может раскрыть много информации о компании, проекте или стратегии.

Драченин также подчеркнул, что хотя ИИ-модели должны быть защищены на архитектурном уровне, всегда остаются риски возникновения уязвимостей или влияния человеческого фактора.

В частности, компания Wiz Research, специализирующаяся на кибербезопасности, ранее сообщила, что нашла в открытом доступе конфиденциальные данные, принадлежащие китайскому стартапу DeepSeek. Утверждается, что разработчики случайно оставили более миллиона строк данных в базе данных ClickHouse без надлежащей защиты. Среди этой информации были истории чатов, секретные ключи, сведения о серверной инфраструктуре и другие виды чувствительной информации.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
280
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии