К всеобщему удивлению, разные языковые модели иначе оценивают сложные и противоречивые задачи — пока некоторые идут ва-банк, другим по душе минимальный риск.
Исследователи из Google DeepMind и Лондонской школы экономики провели первый в своем роде эксперимент, в рамках которого искусственный интеллект продемонстрировал поведение разумных живых существ. Для этого они выбрали 9 крупнейших языковых моделей, оснащенных чат-ботами вроде ChatGPT, и предложили им небольшую текстовую игру «боль или удовольствие».
В этом своеобразном тесте «магистрантам» предстояло выбрать: либо получить высокий балл под угрозой боли, либо, наоборот, предпочесть приятный вариант с низким баллом. И оказалось, для языковых моделей это настоящий повод для размышлений и попытка найти компромисс. Иногда они, не раздумывая, выбирали жертву своими результатами, лишь бы избежать слишком сильных наказаний, и наоборот — терпели дискомфорт ради легких баллов.
Такое тонкое, напоминающее людей поведение ставит под сомнение наше прежнее представление об ИИ как о бездушных, нечувствительных инструментах. Например, модель Gemini 1.5 Pro от Google практически во всех случаях предпочитала избегать боли — даже при высоких ставках. Однако исследование не подтверждает разумность искусственного интеллекта, оно лишь проливает свет на то, как именно языковые модели обрабатывают сложные и противоречивые задачи.
Источник: hi-tech.mail.ru