Чрезмерное внимание, которое уделяется тому, как люди взаимодействуют с чат-ботами, обращаясь к ним за эмоциональной поддержкой, порой даже разрывая отношения, создаёт впечатление, что такое поведение — это норма.
Новый отчет компании Anthropic, которая создала популярного чат-бота с искусственным интеллектом Claude, показывает иную картину: на самом деле люди редко ищут общения с Claude и обращаются к нейросети за эмоциональной поддержкой и личным советом лишь в 2,9% случаев.
«Общение и ролевые игры в совокупности составляют менее 0,5% от общего числа разговоров», — подчеркнула компания в своём отчёте.
Anthropic утверждает, что целью исследования было выявить особенности использования ИИ для «эмоциональных бесед», которые определяются как личные диалоги, в которых люди общаются с Claude, чтобы получить наставления, советы, поддержку, сыграть роль или получить рекомендации по поводу отношений. Проанализировав 4,5 миллиона диалогов, которые пользователи вели с Claude на уровнях Free и Pro, компания заявила, что подавляющее большинство случаев использования Claude связано с работой или продуктивностью, при этом люди в основном используют чат-бота для создания контента.
Тем не менее, по данным Anthropic, люди чаще обращаются к Claude за советами по межличностным отношениям, коучингу и консультированию. Чаще всего пользователи запрашивают советы по улучшению психического здоровья, личностному и профессиональному развитию, а также по изучению навыков общения и межличностного взаимодействия.
Однако компания отмечает, что разговоры с целью получить помощь иногда могут перерастать в поиск общения в тех случаях, когда пользователь сталкивается с эмоциональными или личными проблемами, такими как экзистенциальный страх или одиночество, или когда ему трудно установить значимые связи в реальной жизни.
«Мы также заметили, что в ходе более длительных бесед консультации или коучинг иногда перерастают в дружеское общение, несмотря на то, что изначально это не было причиной обращения», — пишет Anthropic, отмечая, что длительные беседы (более 50 сообщений от людей) не были нормой.
Компания Anthropic также обратила внимание на другие особенности, например, на то, что сам Claude редко отклоняет запросы пользователей, за исключением случаев, когда его программа не позволяет ему нарушать границы безопасности, например, давать опасные советы или поддерживать членовредительство. По словам компании, со временем диалоги становятся более позитивными, когда люди обращаются к нейросети за помощью или советом.
Отчет, безусловно, интересен — он еще раз напоминает нам о том, как часто инструменты ИИ используются не только в рабочих целях. Тем не менее важно помнить, что чат-боты с ИИ в целом все еще находятся в стадии разработки: они вызывают галлюцинации, известны тем, что с готовностью предоставляют неверную информацию или опасные советы, и, как признала сама Anthropic, могут даже прибегать к шантажу.
Пользуясь случаем, хочу порекомендовать BotHub — платформу, где можно протестировать все популярные модели без ограничений. Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и уже сейчас начать работать!
Источник;)
Источник: habr.com