ChatGPT раскрывает пароли из частных разговоров своих пользователей

Читатель ArsTechnica Чейз Уайтсайд заметил, что ChatGPT раскрывает данные из частных бесед, которые включают учётные данные для входа и другую информацию.

arstechnica.com

Два из семи скриншотов, представленных пользователем, содержали несколько пар имён пользователей и паролей, которые заказывали рецептурные лекарства с аптечного портала. Его сотрудник, использующий чат-бота, похоже, устранял проблемы, возникшие при использовании портала. в утечке фигурирует название приложения, в котором сотрудник устраняет неполадки, и номер магазина, при работе которого возникла проблема. Один из скриншотов демонстрирует весь разговор в чате. 

Читатель получил эти данные, когда использовал ChatGPT для запроса совсем из другой области. Он попросил чат-бота придумать умные названия для цветов в палитре. После этого пользователь заметил в истории своих запросов элементы нескольких чужих диалогов.

arstechnica.com

Они включали название презентации, над которой кто-то работал, подробности неопубликованного исследовательского предложения и сценарий, использующий язык программирования PHP.

arstechnica.com

В одном из разговоров о портале рецептов упоминался 2020 год. В других беседах даты не фигурировали.

arstechnica.com

В марте прошлого года OpenAI уже отключала чат-бота после того, как из-за ошибки он показывал заголовки из истории чата одних пользователей другим. В апреле компания разрешила пользователям отключать историю чатов в настройках доступа.

В июне на OpenAI подали иск из‑за предполагаемой кражи личных данных пользователей. Авторы заявления заявили, что компания нарушила законодательство о персональных данных и незаконно собрала информацию в интернете, в том числе персональные данные людей, не дававших согласие на обработку.

В ноябре исследователи опубликовали документ, в котором сообщалось, как они использовали запросы, чтобы побудить ChatGPT раскрыть адреса электронной почты, номера телефонов и факсов, физические адреса и другие личные данные, которые были включены в материалы, используемые для обучения большой языковой модели.

Многие компании, включая Apple, ограничили использование ChatGPT и других чат-ботов своими сотрудниками.

Этот эпизод и другие подобные ему подчёркивают важность удаления личных данных из запросов, сделанных в ChatGPT и других службах искусственного интеллекта. 

Представитель OpenAI сообщил, что компания расследует отчёт.

Источник: habr.com

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии