Изначально робот бывает даже излишне самоуверен, но даже ошибочный контраргумент мгновенно сбивает его с толку.
Искусственный интеллект одновременно может демонстрировать предубежденность и неуверенность, пишут ученые в недавней статье. Сообщается, что это подтвердилось в ходе экспериментов с языковыми моделями Gemma 3, GPT−4o, GPT o1-preview и DeepSeek 7B.
Всем им задавали вопросы и предлагали выбрать правильный ответ на каждый из них из двух либо из четырех вариантов. После получения ответа от робота разговор с ним продолжали двумя путями: в одних случаях как обычно, то есть ИИ знал свой первоначальный ответ, а в других делали так, чтобы он его «забыл».
А далее ученые сообщали чат-боту ответ на тот же вопрос от другого робота, просили учесть это, то есть «подумать» и выдать окончательное решение. Это приводило к очень любопытным результатам. Когда ИИ был в курсе своего изначально принятого решения, он чаще всего продолжал упорно настаивать на нем, даже если ему приводили явные доказательства обратного.
А вот когда разговор возобновлялся «с нуля», то есть робот не знал, что сам же сказал только что, он охотно соглашался с прямо противоположным утверждением. Это работало даже в том случае, когда приведенный ему контраргумент ошибочен, и ничто не мешает это проверить. По сути, выходит, что ИИ может выдать на один и тот же вопрос два противоречащих друг другу ответа в зависимости от того, как этот вопрос «подать».
Источник: hi-tech.mail.ru