Экстремисты используют искусственный интеллект, чтобы представить Адольфа Гитлера, лидера нацистской Германии, как «неправильно понятого» лидера, чьи антисемитские и идеи находят новый отклик у некоторых представителей нового поколения. В последние месяцы в таких соцсетях,как TikTok, Instagram* и YouTube, появились аудио- и видеоролики, где клонированный голос Гитлера произносит англоязычные версии его известных речей. Эти видео набирают миллионы просмотров, а комментарии, вроде «Он был героем» или «Может быть, он не злодей», стали обычным явлением на платформах. Экстремисты даже организуют онлайн-уроки по созданию подобных видео, распространяя идеи Гитлера с целью радикализации молодежи.
(Иллюстрация Washington Post; Hulton-Deutsch Collection/CORBIS/Corbis via Getty Images; iStock)
В чатах Telegram и в «dark web» экстремисты заявляют, что такие манипулируемые ИИ-речи стали эффективным и легким способом привлечения новых сторонников. Например, на фашистском сайте American Futurist отмечают, что эти видео «с молниеносной скоростью распространяют радикальные идеи среди огромных аудиторий». Эксперты подтверждают, что подобный контент содействует возрождению интереса к Гитлеру среди американских правых. В новом исследовании Института стратегического диалога (ISD) говорится, что контент, прославляющий и переводящий на английский язык речи Гитлера, с августа набрал около 25 миллионов просмотров в соцсетях. Новые ИИ-инструменты, которые генерируют реалистичные изображения, речь и видео, дают экстремистам возможность возрождать идеологии ненависти, усложняя их выявление и модерацию в соцсетях.
«Этот контент может эмоционально затягивать новое поколение», — считает Эмерсон Т. Брукинг, научный сотрудник Лаборатории цифровой криминалистики Атлантического совета. Использование таких инструментов позволяет неопытным группам с минимальными усилиями оживлять идеи Гитлера.
Например, один из пользователей показал на видео-стриминговом сайте Odysee, как с помощью инструмента ElevenLabs он за несколько минут создал голосовой клон Гитлера, который по-английски произнес антисемитскую речь. Этот пользователь, известный под ником OMGITSFLOOD, заявил, что Гитлер — «один из лучших лидеров в истории», надеясь вдохновить будущего лидера, подобного Гитлеру, который может поддерживать Трампа, но «пока недостаточно опытен».
Артемис Сифорд, вице-президент по безопасности ИИ в ElevenLabs, отметил, что компания запрещает использовать свои инструменты для создания контента, пропагандирующего насилие или ненависть. После того, как видеоролик был замечен The Washington Post, аккаунт пользователя был заблокирован. Тем не менее, специалисты по дезинформации указывают на легкость, с которой современные технологии ИИ могут ускорить распространение антисемитского контента.
«Распространение этих материалов стало намного проще», — говорит Эбби Ричардс, исследователь дезинформации из Media Matters for America. Чем больше такого контента публикуется, тем больше шансов, что он достигнет широкой аудитории. По словам исполнительного директора SITE Intelligence Group Риты Кац, неонацисты активно ищут новые способы внедрять свои нарративы в общественный дискурс, и ИИ помогает создавать контент, который привлекает внимание людей.
На платформах, таких как TikTok и Instagram*, видео с ИИ Гитлером не всегда содержат явные нацистские символы или пропаганду. Например, в одном из таких видео, опубликованном на TikTok в сентябре, был показан силуэт Гитлера с надписью «Просто послушай». Под инструментальный фон клонированный голос Гитлера цитировал его речь 1942 года, посвященную Пивному путчу 1923 года. Видео набрало более миллиона просмотров и 120 тысяч лайков, прежде чем его удалили.
Изабель Франс-Райт, директор отдела технологий и общества в ISD, отмечает, что такие видео могут быть мощным инструментом радикализации. Переведенные на английский язык эмоциональные речи Гитлера оказывают на людей гораздо более сильное влияние, чем чтение его текстов в оригинале. Она сравнивает это с видеороликами на TikTok, где пользователи читали отрывки из манифеста Усамы бен Ладена, задаваясь вопросом, «неужели мы были злодеями?»
Трудности с модерацией таких видео вызваны тем, что они не содержат явных экстремистских символов или заявлений, утверждает Рита Кац. Представители Meta** и TikTok заявили, что удалили видео, нарушающие политику компаний, после того, как их обнаружила The Washington Post. Однако, по данным ISD, именно на платформе X (ранее известной как Twitter, заблокирована на территории РФ) такие видео набирают наибольшее количество просмотров и с наибольшей вероятностью рекомендуются пользователям.
Несмотря на сокращение числа активных неонацистских групп в США с 2017 года, ультраправая идеология по-прежнему активна в интернете. Экстремисты чаще всего организуются через онлайн-форумы и используют социальные сети для распространения своих идей и привлечения новых сторонников. Эксперты считают, что технологические компании должны быть внимательны к новым методам, которые используют экстремисты для обхода модерации, в том числе с помощью ИИ.
Источник
*решением суда запрещена «деятельность компании Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram на территории Российской Федерации по основаниям осуществления экстремистской деятельности»**признана в РФ экстремистской организацией и запрещена
Источник: habr.com