Ученые разработали метод защиты от клонирования голоса

Ученые выработали новый метод защиты от голосового клонирования, который поможет предотвратить возможные мошеннические действия. С помощью адверсариального искусственного интеллекта.

Проект под названием DeFake, разработанный профессором Нинг Чжаном из Университета Вашингтона в Сент-Луисе, предлагает использовать технологию адверсариального искусственного интеллекта для внедрения невидимых искажений в голосовые записи. Эти искажения делают клонирование голоса более сложным, делая записи неиспользуемыми для мошеннических целей.

Суть DeFake заключается в том, чтобы создать звуковые искажения, которые незаметны для человеческого слуха, но делают запись непригодной для использования искусственным интеллектом. Подобные методы защиты помогают предотвратить злоупотребление чужим голосом и защитить потребителей от мошенничества.

Этот проект дополняет ранее выполненную работу Нинг Чжана по предотвращению несанкционированного синтеза речи.

Источник: www.ferra.ru

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии