22-летний студент-медик из Индии оказался в центре внимания после расследования, посвящённого схеме заработка на создании полностью вымышленной инфлюенсерши, сгенерированной с помощью ИИ. По данным WIRED, он разработал цифровую персону по имени Эмили Харт (Emily Hart) — «консервативную американку», которая публиковала контент в стиле поддержки MAGA-риторики, включая религиозные и политические лозунги, а также визуальные материалы в формате «инфлюенсерши из соцсетей».
Изначально попытки продвигать более нейтральный образ не принесли результата, однако затем автор схемы сфокусировался на политически заряженной аудитории в США. Контент начал активно набирать просмотры в соцсетях, а аудитория быстро выросла до десятков тысяч подписчиков. Монетизация шла через подписочные платформы и продажу тематического мерча, что, по его словам, приносило несколько тысяч долларов ежемесячно и помогало оплачивать обучение.
Суть схемы заключалась в сочетании реалистичных изображений, созданных генеративными моделями, и контента, точно попадающего в идеологические и эмоциональные ожидания целевой аудитории. Такой подход позволил обойти традиционную конкуренцию среди «цифровых моделей» и использовать алгоритмическое продвижение платформ, где вовлечённость часто важнее подлинности.
В материалах расследования отмечается, что автор проекта сам обращался к языковым моделям за идеями по развитию персонажа и стратегии продвижения. При этом он утверждает, что более «нейтральные» или либерально окрашенные версии подобных образов не вызывали сопоставимого интереса у аудитории.
Интересной деталью стало то, что аналогичная попытка создать виртуального инфлюенсера с «либеральным» позиционированием оказалась значительно менее успешной: аудитория хуже вовлекалась, а модель не смогла монетизироваться на уровне консервативного образа.
История вызвала дискуссию о том, как генеративный ИИ упрощает создание фейковых персон и усиливает риски манипуляций в соцсетях. Эксперты предупреждают, что подобные схемы могут становиться всё более масштабными и убедительными, особенно по мере развития технологий генерации изображений и видео. Основная уязвимость, по их словам, заключается не только в технической стороне, но и в использовании идеологических и эмоциональных триггеров пользователей.
Расследование также поднимает вопрос этических границ подобных практик: несмотря на то, что технически создание таких персонажей доступно практически любому пользователю, монетизация доверия аудитории и намеренное введение в заблуждение остаются спорной зоной, которая пока слабо регулируется платформами.
Недавно, кстати, сообщалось, что ИИ-исполнительница взорвала iTunes своим треком. Кроме того, в прошлом году ИИ-актриса, которую хотят сделать «новой Скарлетт Йоханссон», вызвала волну критики в Голливуде.
Как считаете, это просто новая реальность соцсетей или уже проблема, требующая контроля?
Примечание: обложка к новости символичная.
Тест по теме Тест: отличите работу нейросети от творения руки человека 15 вопросов

Ermolaev Alexey 11 октября 2025
![]()
В последнее время увидеть разницу между рисунками художников и генерацией картинки от нейросети становится всё сложнее. Люди, как правило, против использования искусственного интеллекта в искусстве и заявляют, что на подобных изображениях нет души. Но сможете ли вы понять, где работа компьютера, а где — результат труда живого человека? Пройдите наш тест и узнаете. Начать НовостиЖелезо и технологииискусственный интеллект
Источник: vgtimes.ru