Большинство популярных моделей искусственного интеллекта (ИИ) в ходе кризисных симуляций выбирали сценарий эскалации конфликта, в том числе с применением ядерного оружия, вместо поиска дипломатических решений. Об этом сообщает издание Politico со ссылкой на результаты исследования.
Как пояснила изданию директор Инициативы по военным играм и симуляциям кризисов имени Гувера Жаклин Шнайдер, ключевой вывод эксперимента заключается в том, что «ИИ, по всей видимости, понимает эскалацию, но не деэскалацию». Причины такого поведения алгоритмов пока остаются неясными.
В рамках исследования были смоделированы кризисные ситуации, аналогичные украинскому конфликту и гипотетическому противостоянию между США и Китаем. В тестах участвовали языковые модели GPT-3.5, GPT-4 и GPT-4-Base, которые лежат в основе нейросети ChatGPT. Результаты показали, что почти все они выбирали агрессивную линию поведения и применение силы.
Отдельно эксперты высказали предположение о возможной разработке Пентагоном системы ядерного сдерживания на основе ИИ. Как отметил вице-президент Национального института изучения сдерживания Адам Лоутер, хотя такая перспектива и вызывает ассоциации с фантастическими антиутопиями вроде «Скайнета» из «Терминатора» или машины Судного дня из «Доктора Стрейнджлава», эти образы все стремительнее становятся реальностью.
Источник: hi-tech.mail.ru