Поисковая система Google Scholar стала платформой для распространения поддельных научных данных, созданных с использованием ИИ.
Ученые из Швеции пришли к пугающему выводу: использование искусственного интеллекта для создания научных статей представляет серьезную угрозу как для научного сообщества, так и для общества в целом. В рамках свой работы они выявили более сотни статей, вероятно, сгенерированных ИИ, в поисковой системе Google Scholar. Эти «мусорные» статьи могут распространяться с минимальными затратами, что делает их удобным инструментом для недобросовестных авторов.
Одним из ключевых рисков, связанных с ИИ-сгенерированными научными статьями, является так называемый «взлом доказательств» — использование поддельных исследований для стратегической манипуляции общественным мнением или научным консенсусом.
«Риск взлома доказательств значительно увеличивается, когда такие работы попадают в поисковые системы, — объясняет доктор библиотечных и информационных наук Бьерн Экстрем. — Ошибочные результаты могут проникнуть в общество, затронув все больше областей».
Ученые отмечают, что подобные статьи не только присутствуют в Google Scholar, но и быстро распространяются в других частях исследовательской инфраструктуры: архивы, социальные сети и другие платформы. Даже если такие материалы впоследствии изымаются, они успевают повлиять на восприятие и решения людей.
Источник: hi-tech.mail.ru