Эксперт советует не сообщать чат-ботам чувствительную информацию.
Передача личных данных нейросетям может обернуться серьезными рисками, включая возможный доступ к информации со стороны мошенников. Об этом NEWS.ru сообщил эксперт Владимир Зыков, подчеркнув, что пользователи часто недооценивают последствия взаимодействия с ИИ-сервисами.
По словам специалиста, любая информация, введенная в чат-боты и другие системы на базе ИИ, нередко сохраняется на серверах компаний-разработчиков. Эти данные могут использоваться для анализа, обучения моделей и улучшения качества работы сервисов. В отдельных случаях к ним могут получать доступ сотрудники компаний — например, для проверки корректности ответов или разметки контента.
Эксперт отметил, что фактически пользователь, вводя информацию в нейросеть, передает ее стороннему сервису. Это означает, что данные выходят за пределы личного устройства и могут стать частью внешней инфраструктуры хранения и обработки. Даже при наличии заявленных механизмов защиты полностью исключить риск утечки невозможно: угрозу представляют как потенциальные взломы, так и ошибки в настройке систем.
В этой связи Зыков призвал с осторожностью относиться к передаче чувствительной информации. В частности, речь идет о паспортных данных, номерах банковских карт, логинах и паролях, медицинских сведениях и корпоративных документах. Подобные данные, оказавшись в чужих руках, могут быть использованы в мошеннических схемах.
Источник: hi-tech.mail.ru