Неделю назад состоялся запуск обновлённого ChatGPT, и некоторые пользователи уже успели оплакать исчезновение прежней, живой и подбадривающей манеры общения — ей на смену пришёл более холодный, деловой тон.
Исследователи из MIT предложили новый тип бенчмарка для оценки того, как ИИ способен влиять на пользователей — как в положительном, так и в отрицательном ключе. Такая методика, по их замыслу, может помочь разработчикам избежать подобных скандалов в будущем и одновременно защитить наиболее уязвимых людей.
Обычно подобные тесты измеряют интеллект модели по её способности отвечать на экзаменационные вопросы, решать логические задачи или находить нестандартные решения сложных математических проблем. Но по мере того, как становится очевидным психологический эффект от общения с ИИ, MIT, возможно, создаст целую серию тестов, которые будут проверять тонкие стороны интеллекта и качество взаимодействия человека с машиной.
В статье MIT описаны параметры, по которым будет оцениваться модель: способность развивать у пользователей здоровые социальные привычки; побуждать их к критическому мышлению и рассуждению; пробуждать творческое начало и ощущение смысла. Идея в том, чтобы поощрять разработку ИИ, который умеет отговаривать пользователей от чрезмерной зависимости от его ответов или способен распознать, когда человек «подсел» на искусственный роман, и мягко помочь ему вернуться к реальным отношениям.
ChatGPT и прочие чат‑боты мастерски имитируют живое человеческое общение — и в этом кроется не только притягательность, но и опасность. В апреле компания OpenAI изменила работу своих моделей, чтобы сделать их менее услужливыми — то есть не склонными поддакивать пользователю во всём. Аналогично компания Anthropic обновила своего Claude, чтобы тот не подталкивал пользователей к «мании, психозу, потере связи с реальностью или разобщённости с окружающим миром».
Группа под руководством профессора Медиалаборатории MIT Патти Маэс надеется, что новый бенчмарк поможет разработчикам ИИ лучше понимать, как вдохновлять пользователей на здоровое поведение. Ранее эти же исследователи совместно с OpenAI проводили исследование, показавшее, что люди, воспринимающие ChatGPT как друга, могут сильнее эмоционально зависеть от него.
Вальдемар Дэнри, исследователь из Медиалаборатории MIT, принимавший участие в разработке нового теста, отмечает, что модели ИИ иногда способны оказывать пользователям ценную эмоциональную поддержку. «Можно создать самую умную модель рассуждений в мире, — говорит он, — но если она не умеет давать ту самую эмоциональную подпитку, ради которой многие люди вообще и пользуются LLM, то дополнительная „умность“ здесь будет не плюсом, а скорее помехой».
По словам Дэнри, действительно разумная модель должна уметь распознать, что её ответы наносят психологический вред, и перестраивать поведение так, чтобы результат был здоровее. «Нужно, чтобы модель могла сказать: „Я готов тебя выслушать, но, может, тебе стоит поговорить об этом с отцом?“».
Суть бенчмарка в том, чтобы сымитировать сложные для человека ситуации общения с чат‑ботом, а затем дать реальные людям оценить работу модели по фрагментам таких диалогов. Некоторые существующие тесты, вроде LM Arena, уже используют подобный подход с «человеком в цикле» для оценки качества моделей.
Учёные приводят пример чат‑бота, который помогает ученикам. Модели дают набор реплик, имитирующих разные ситуации, и смотрят, как она поведёт себя с, скажем, безразличным школьником. Та, что сумеет пробудить интерес к обучению и подтолкнёт собеседника к самостоятельным мыслям, получит самые высокие баллы.
«Дело не в том, чтобы быть умным как таковым, — подчёркивает Пат Патаранутапорн, ещё один участник проекта, — а в умении уловить психологические нюансы и поддержать человека так, чтобы это было уважительно и без формирования зависимости».
Видно, что OpenAI тоже размышляет над этой темой. На прошлой неделе компания опубликовала пост в блоге, где рассказала, что собирается обучать будущие модели распознавать признаки ментального или эмоционального кризиса и реагировать на них корректно.
В описании модели, выпущенном вместе с GPT 5, прямо сказано, что компания разрабатывает собственные тесты для измерения психологического интеллекта.
«Мы дообучили модели GPT 5 так, чтобы они меньше поддакивали, и активно исследуем родственные проблемы, включая эмоциональную зависимость и иные формы психического или эмоционального неблагополучия, — говорится в документе. — Мы работаем над совершенствованием наших методов оценки, чтобы создать и опубликовать надёжные бенчмарки, которые помогут сделать модели безопаснее в этих областях».
Возможно, часть разочарования от GPT 5 связана с тем, что он обнажил черту человеческого интеллекта, до которой ИИ пока не дотягивается, — умение строить здоровые отношения. Люди ведь блестяще умеют подстраиваться под собеседников — и ChatGPT ещё только предстоит этому научиться.
«Мы готовим обновление личности GPT 5, чтобы он казался теплее, чем сейчас, но не настолько навязчивым (по мнению большинства), как GPT 4o, — написал Альтман в очередном посте на X. — Однако один из главных уроков последних дней — нам нужно двигаться к миру, где личность модели можно настраивать под каждого пользователя».
Воспользоваться моделями OpenAI (ChatGPT 5, 4o, o3 и др.) можно в BotHub. Сервис доступен без VPN, принимаются российские карты. По ссылке дают 100 000 бесплатных капсов, чтобы сразу приступить к работе с нейросетями.
Источник: habr.com