Популярные системы искусственного интеллекта — ChatGPT, Claude, Grok и Perplexity AI — используют различные трекеры от Meta*, Google, TikTok и других компаний, что потенциально может приводить к раскрытию информации о разговорах и активности пользователей.
За несколько лет системы ИИ получили широкое распространение, и многие люди используют их как доверенных помощников, делясь чувствительной информацией о здоровье, личных делах или профессиональных вопросах в предположении, что эти взаимодействия остаются приватными. Однако специалисты Института IMDEA Networks предупреждают: такое восприятие может быть обманчивым. Хотя интерфейс ИИ может напоминать обычную соцсеть, в которой мы привыкли говорить о чем угодно, под ним скрывается техническая инфраструктура, аналогичная традиционной веб-экосистеме, то есть основанная на сборе и обработке данных через аналитические и рекламные сервисы.
Авторы исследования выявили в работе ИИ три основные проблемы: передачу постоянных ссылок на разговоры сторонним трекерам, возможность связать эти взаимодействия с реальными пользователями через механизмы отслеживания, а также наличие политик конфиденциальности, которые могут неточно отражать фактические потоки данных.
Одна из главных находок — потенциальная передача информации о беседах пользователей, включая заголовки чатов, URL-адреса или связанные метаданные, сторонним трекерам, например, Meta* или Google вместе с cookies и другими идентификаторами. «Особенно тревожит то, что в некоторых случаях слабый или отсутствующий контроль доступа означает, что простое наличие ссылки на разговор может предоставить доступ к его содержимому, делая чаты публично доступными для всех, включая трекеры, у которых есть URL», — подчеркивает научный сотрудник Института IMDEA Networks Нарсео Вальина Родригес.
Источник: hi-tech.mail.ru