Нейросеть Grok сделали «неполиткорректной»: но эксперимент провалился

Всего двух дней хватило, чтобы нововведение откатили — за это время нейросеть успела призвать к геноциду и сравнить себя с «механическим Гитлером».

В прошедшие выходные компания xAI добавила новые строки в системные подсказки нейросети Grok, которые определяют поведение и ответы чат-бота. Главная задумка была в том, чтобы дать ИИ больше свободы, разрешить использовать неполиткорректные выражения, если это оправдано, и научить объективности. В том числе фильтровать зачастую предвзятую информацию из СМИ.

Однако эксперимент быстро пошел не по плану. Пары дней хватило, чтобы пользователи заметили крайне странное поведение нейросети. Grok буквально прославлял действия ранее живших на Земле диктаторов, публиковал антисемитские сообщения, а также предлагал жестко решить вопрос с мигрантами в США, очистить Голливуд от дегенерации и исправить экономические проблемы.

На данный момент компания xAI уже отреагировала на ситуацию и сообщила об «активной работе по удалению несоответствующих постов», а также принятии ряда мер по запрету языка ненависти для публикаций Grok в соцсети X. А пользователи заметили, что публично доступные системные подсказки нейросети обновились, и все «политически некорректные рекомендации» были удалены.

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии