Читатель ArsTechnica Чейз Уайтсайд заметил, что ChatGPT раскрывает данные из частных бесед, которые включают учётные данные для входа и другую информацию.
arstechnica.com
Два из семи скриншотов, представленных пользователем, содержали несколько пар имён пользователей и паролей, которые заказывали рецептурные лекарства с аптечного портала. Его сотрудник, использующий чат-бота, похоже, устранял проблемы, возникшие при использовании портала. в утечке фигурирует название приложения, в котором сотрудник устраняет неполадки, и номер магазина, при работе которого возникла проблема. Один из скриншотов демонстрирует весь разговор в чате.
Читатель получил эти данные, когда использовал ChatGPT для запроса совсем из другой области. Он попросил чат-бота придумать умные названия для цветов в палитре. После этого пользователь заметил в истории своих запросов элементы нескольких чужих диалогов.
arstechnica.com
Они включали название презентации, над которой кто-то работал, подробности неопубликованного исследовательского предложения и сценарий, использующий язык программирования PHP.
arstechnica.com
В одном из разговоров о портале рецептов упоминался 2020 год. В других беседах даты не фигурировали.
arstechnica.com
В марте прошлого года OpenAI уже отключала чат-бота после того, как из-за ошибки он показывал заголовки из истории чата одних пользователей другим. В апреле компания разрешила пользователям отключать историю чатов в настройках доступа.
В июне на OpenAI подали иск из‑за предполагаемой кражи личных данных пользователей. Авторы заявления заявили, что компания нарушила законодательство о персональных данных и незаконно собрала информацию в интернете, в том числе персональные данные людей, не дававших согласие на обработку.
В ноябре исследователи опубликовали документ, в котором сообщалось, как они использовали запросы, чтобы побудить ChatGPT раскрыть адреса электронной почты, номера телефонов и факсов, физические адреса и другие личные данные, которые были включены в материалы, используемые для обучения большой языковой модели.
Многие компании, включая Apple, ограничили использование ChatGPT и других чат-ботов своими сотрудниками.
Этот эпизод и другие подобные ему подчёркивают важность удаления личных данных из запросов, сделанных в ChatGPT и других службах искусственного интеллекта.
Представитель OpenAI сообщил, что компания расследует отчёт.
Источник: habr.com