Искусственный интеллект все лучше имитирует человеческое поведение и даже научился отвечать на онлайн-опросы, причем настолько хорошо, что это ставит под угрозу достоверность научных исследований, политических и социологических данных.
Онлайн-опросы — краеугольный камень современных социальных наук. Существуют даже специальные онлайн-платформы, которые позволяют ученым быстро и недорого собирать данные. Однако теперь эти системы оказались уязвимы для масштабных манипуляций. По оценкам специалистов Школы передовых исследований IMT в Лукке и Кембриджского университета, от 4 до 90% ответов в определенных выборках могут быть ложными или мошенническими. Особенно острой эта проблема становится теперь, когда стремительно развивается индустрия автономных ИИ-агентов, которые могут заполнять анкеты практически без участия человека.
«Проблема в том, что инструменты, которые до сих пор использовались для того, чтобы отличать людей от ботов, больше не работают, — объясняет Фолько Паницца, один из соавторов работы. — Мы не можем определить, человек отвечает или нет. Это значит, что все данные потенциально загрязнены».
Последствия могут быть серьезными не только для науки: опросы широко используются в политической социологии, то есть их искажение может влиять и на демократические процессы. При этом даже небольшая доля «загрязненных» данных — всего 3−7% мошеннических ответов — способна исказить статистические выводы.
Источник: hi-tech.mail.ru