ИИ-изображения угрожают науке: как ученые будут выявлять их

Технологии генеративного искусственного интеллекта могут с легкостью создавать убедительные научные данные — издатели и эксперты про проверке опасаются потока фейков.

Проблема мошенничества в научной литературе с каждым годом становится острее. Подделки, созданные с использованием генеративного искусственного интеллекта, все труднее выявить, а это ставит под угрозу достоверность исследований. Современные технологии позволяют мошенникам быстро генерировать тексты, изображения и даже данные, которые с трудом отличимы от настоящих. О сложившейся ситуации пишет в своем новом материале журнал Nature.

«Генеративный ИИ развивается очень быстро, и это вызывает серьезные опасения», — отмечает эксперт по проверке изображений Яна Кристофер из FEBS Press в Германии. Ученые, работающие в области этики публикаций и проверки достоверности данных, сталкиваются с новыми вызовами: подделки становятся все более убедительными, а риск распространения ложной информации в научной среде растет.

Мошенники давно пользуются услугами так называемых «фабрик статей» — компаний, которые массово создают псевдонаучные публикации. С внедрением генеративного ИИ «фабрики» получили еще один мощный инструмент: теперь они могут генерировать целые статьи, включая реалистичные изображения и данные, почти мгновенно.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1212
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии