Масштабирование постмодернизма. И проблема подмены фактов

Еще 50 лет назад Жан Бодрийяр описывал особенности дивного нового мира, в котором объективной картины не существует. А видение мира определяется тем, что скармливается сознанию человека. Только если раньше за производственным процессом «Шоу Трумана» могли стоять люди, то сегодня это место отдано нейросетям.

Потенциала нейросетей уровня чат GPT 2 уже достаточно для того, чтобы формировать видимость массовости. Дешевые мощности, доступные каждому. Доступ буквально к инновационным продуктам, которые лет 5 назад считались большим количеством людей невозможными, стоит лишь оплаты за электроэнергию и интернет. Не с этого мы представляли начало технологической сингулярности, верно? Что ж, возможности бывает сложно рассмотреть в суете будней, и прожить жизнь, не узнав, на что способно тело и разум.

Инструмент постмодернизма

Новое исследование предсказывает, что к середине 2024 года использование нейросетей со стороны «злоумышленников» станет повседневным явлением. Злоумышленником в этом случае считается любой человек или группа лица, внедряющие дезинформацию в широкие массы. Основной целью таких людей будут политические выборы, которые пройдут в рекордном количестве в разных странах мира. 

Нейросети, их интеграция и неправомерное использование

Еще до выпуска новейших версий систем Generative Pretrained Transformer (GPT) эксперты по искусственному интеллекту прогнозировали, что к 2026 году 90% онлайн-контента будет генерироваться компьютерами без вмешательства человека, что приведет к распространению дезинформации.

Существует предположение, что крупные социальные сети, лидирующие по охватам аудитории, нуждаются в регулировании. Вмешательство регулирующих органов в работу таких сетей поможет снизить потенциальные риски. 

Это предположение в некоторой степени верно и даже нашло официальное оформление как: Закон ЕС о цифровых услугах и Закон об искусственном интеллекте. Однако есть нерегулируемая зона действий, как в других государствах, так и в группах лиц по интересам. Злоупотребление ИИ становится таким же масштабируемым как пиратство, но вреда от него прогнозируется несопоставимо больше. Тем более, что для этого не нужны даже суперкомпьютеры, разве что уровня Колосса.

Цифровая поступь постмодернизма 

Исследование Университета Джорджа Вашингтона (GW), стало первым количественным научным анализом, направленным на изучение того, как злоумышленники могут злоупотреблять системами искусственного интеллекта и GPT для нанесения глобального вреда через платформы социальных сетей, и что можно с этим сделать.

Все говорят об опасностях ИИ, но до нашего исследования за ним не стояла никакая наука. Невозможно выиграть битву без глубокого понимания поля битвы.

Нил Джонсон, ведущий автор исследования.

Исследователи начали с составления карты динамической сети взаимосвязанных сообществ в социальных сетях, из которых формируется ландшафт виртуального мира. Пользователи – иногда несколько человек, иногда несколько миллионов – присоединяются к этим сообществам из-за общих интересов. Формируя едва ли не отдельное сознание на сервере.

Ненависть. Постмодернизм. Нейросети

Исследователи сосредоточились на крайних сообществах, которые топят за отмену чего-либо. Далее они будут назваться «анти-Х» . Под критерии попали сообщества, в которых два или более из 20 последних сообщений содержат определенные высказывания, разжигающие ненависть, и/или крайний национализм и/или расизм. 

В число этих анти-X-сообществ входили, например, антиамериканские, антифеминистские, антиабортные или антисемитские сообщества. Связи между этими сообществами формируются с течением времени, образуя кластеры сообществ внутри и между различными платформами социальных сетей. Процесс сознания у каждого отдельного пользователя получает огромную питательную базу, для возведения своих теорий и концепций.

Любое сообщество А может создать ссылку на любое сообщество Б, если контент Б представляет интерес для участников А. Участник сообщества А может соглашаться или не соглашаться с Б. Другая ссылка направляет внимание участника A на объект B, и участники A могут затем добавлять комментарии к постам сообщества B, при этом участники сообщества B не знают о наличии ссылке — следовательно, члены сообщества B не имеют доступ к сообществу A и потенциально попадают под его влияние.

Мнение авторов исследования.

Вычисляемый постмодернизм и очевидные маркеры злоумышленников

Используя математическую модель, исследователи определили базовые паттерны поведения злоумышленников, и причины, по которым они используются. В частности, ученые обнаружили, что для успешного внедрения масштабной пропаганды ненависти, достаточно  базовой системы GPT, такой как GPT-2. 

Технология более привлекательна для злоумышленников, чем более сложные версии, такие как GPT-3 или 4. Это связано с тем, что GPT-2 уже может легко копировать человеческий стиль общения и контент, уже процветающий в экстремистских онлайн-сообществах.

Злоумышленники легче использовать базовый инструмент, такой как GPT-2, для получения подстрекающих месседжей, тонко изменяя форму диалога не меняя его значение. Напротив, GPT-3 и -4 содержат фильтр, который не позволяет внедрять такие манипуляции.

Поле боя в мире постмодернизма

По мнению исследователей, онлайн-поле боя, на котором, скорее всего, будет процветать деятельность ИИ-злоумышленников, — это сообщества радикалов плюс сообщества, с которыми они напрямую связаны. 

Гибридное сосуществование таких сообществ создает виртуальную-экосистему, насчитывающую более одного миллиарда человек, что позволяет искусственному интеллекту-злоумышленников процветать во всем мире. Исследователи иллюстрируют свою точку зрения, ссылаясь на ненависть и экстремизм, порожденные не искусственным интеллектом, а течениями в сети в период Covid-19, а в последнее время – в войнах по всему миру. Искажение реальной картины мира – неотъемлемая часть СМИ. Но целенаправленное искажение – постмодернизм в чистом виде.

Ученые прогнозируют, что к середине 2024 года деятельность радикалов с использованием нейросетей станет повседневным явлением. Чтобы проследить тенденцию, ученые использовали данные двух исторических, технологически схожих инцидентов, связанных с манипулированием онлайн-электронными системами. Атаки с использованием автоматизированных алгоритмов на финансовые рынки США в 2008 году и китайские кибератаки на инфраструктуру США в 2013 году. Анализируя эти наборы данных, ученые изучили характер этих атак и наложили его паттерны на актуальные возможности технологического прогресса ИИ.

Дивный новый мир

2024 год преподносится как «крупнейший год выборов в истории», поскольку более чем в 50 странах пройдут национальные выборы. От США, Тайваня, Великобритании, Украины и Индии до России, Сальвадора и Южной Африки. И результаты некоторых выборов несут глобальное влияние для вопросов по правам человека, экономики, международных отношений и мира во всем мире. 

Таким образом, по мнению исследователей, угроза использования ИИ для распространения и усиления дезинформации во время выборов со стороны злоумышленников вполне реальна.

Исследователи рекомендуют компаниям, работающим в социальных сетях, использовать тактику сдерживания дезинформации, а не слепо удалять контент, созданный злоумышленниками.

Поскольку никто не может точно предсказать, что произойдет с будущим искусственным интеллектом-злоумышленником, учитывая быстрые темпы развития технологий и изменение онлайн-пространства, прогнозы в этой статье, строго говоря, спекулятивны. Но каждый из выводов остается количественным и поддающимся проверке – а также поддающимся обобщению. 

Мнение авторов исследования

А что думаете вы? Сможете ли вы, при необходимости, распознать попытку манипулирования мнением? Бывало ли такое, что вы уже сталкивались с нейросетями, которые ведут одностороннюю политику расшатывания мнений через посты или комменты?

Источник: habr.com

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии