В Сети раскрыли опасности вольного общения с ИИ-чатботами: риски и сбор данных

В мире, всё более «управляемом» ИИ, обеспокоенность по поводу конфиденциальности возрастает, особенно в ходе общения с чат-ботами. Как подчеркивает недавняя статья Лилы Шрофф для The Atlantic, такие компании, как OpenAI и Anthropic, накапливают огромные объемы журналов чатов, зачастую при нестрогих политиках обработки данных. Эти данные, полные личных подробностей, представляют собой лакомый кусочек для таргетированной рекламы, которая может эксплуатировать «самые интимные секреты» пользователей.

Люди часто чувствуют себя более комфортно, раскрывая личную информацию ИИ, чем человеческим собеседникам, так как чат-боты не люди, а машины. Эта динамика, пишет издание, может привести к тому, что пользователи будут делиться чувствительными деталями, которые в дальнейшем могут быть использованы в рекламных целях. А если подумать, что журналы чатов можно использовать при раскрытии преступлений, становится еще «тревожнее».

С ростом давления на ИИ-компании с целью монетизации своих продуктов риск злоупотреблений становится «всё более актуальным».

Как показано на недавнем объявлении Snapchat о персонализации рекламы на основе разговоров с его встроенным чат-ботом, слияние ИИ и рекламы неизбежно.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
7259
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии