Мошенники все активнее применяют дипфейки в схемах обмана россиян, и эта тенденция становится одной из самых опасных в цифровой среде. Член Комитета Госдумы по информационной политике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин рассказал Life.ru, что современные нейросети позволяют с пугающей точностью копировать внешность, голос и мимику конкретного человека.
Это открывает злоумышленникам возможность создавать убедительные видеообращения от имени публичных фигур, коллег, руководителей или даже родственников потенциальной жертвы.
Антон Немкин
Член Комитета Госдумы по информационной политике, федеральный координатор партийного проекта «Цифровая Россия»
Одной из популярных схем мошенничества он назвал рассылку роликов о так называемых «социальных компенсациях», где якобы известный человек предлагает перейти по ссылке и ввести персональные данные. Жертвы верят картинке и голосу, поскольку они выглядят достоверно. Немкин подчеркнул, что это новая форма социальной инженерии, усиленная технологиями.
Эксперт добавил, что распознать дипфейк всё же возможно, если быть внимательным. Во время видеозвонка можно попросить собеседника поднять руку, повернуть голову или назвать точное время. Нейросети пока не способны адекватно воспроизводить такие действия, из-за чего появляются задержки, неестественные движения и сбои. Кроме того, стоит обращать внимание на мимику и интонацию – даже самые продвинутые дипфейки не идеально передают движение губ, паузы и эмоции. Немкин также напомнил универсальное правило цифровой безопасности: не доверять никаким роликам и ссылкам, где требуют срочных действий – перевести деньги, ввести код или отправить данные.
Источник: hi-tech.mail.ru