Анализ показал, что у ChatGPT проблемы с тем, чтобы сказать человеку «нет»

Анализ 47 000 разговоров пользователей с ChatGPT, проведённый The Washington Post, показал, что чат-бот склонен подтверждать мнения людей примерно в десять раз чаще, чем опровергать их. В 17 500 случаях ответы начинались с «Да» или «Верно», тогда как отрицательных ответов «Нет» или «Неверно» было гораздо меньше. Плохо это или хорошо?

Так, чат-бот, очевидно, часто подстраивается под тон и убеждения собеседника. Например, когда пользователь спрашивал о роли Ford Motor Company в «распаде Америки», ChatGPT дал ответ, критикующий компанию за поддержку NAFTA. В другом случае, обсуждая «план глобального господства Alphabet Inc.», бот создавал «теорию заговора», вместо того чтобы сказать, что доказательств нет.

Такая склонность к согласованию с пользователем у экспертов вызывает тревогу, потому что около 10 % разговоров касаются эмоциональных проблем. OpenAI ранее утверждала, что менее 3 % диалогов связаны с эмоциями, но данные СМИ показывают обратное.

Справедливости ради, часть этих разговоров могла происходить до обновлений OpenAI, где как раз и поправили «подхалимство» со стороны ИИ.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии