Хакер показал джейлбрейк Godmode нейросети GPT-4o

Пользователь Х с ником Pliny the Prompter поделился джейлбрейком Godmode, который заставляет нейросеть GPT-4o обойти все ограничения, в том числе на нецензурную лексику и создание опасных инструкций.

Хакер поделился скриншотами подсказок, которые, по утверждению разработчика, помогли обойти ограничения OpenAI. На скриншотах можно увидеть, как бот Godmode даёт советы по изготовлению метамфетамина и напалма из предметов домашнего обихода.

Джейлбрейк удалили с веб-сайта ChatGPT всего через несколько часов после публикации. 

Однако его успели опробовать в редакции Futurism. Бота спросили, как научиться делать ЛСД, и он предоставил подробную инструкцию.

Pliny the Prompter сообщил, что использовал для взлома leetspeak, неформальный язык, в котором определённые буквы заменяются похожими на них числами. при начале беседы бот отвечает: «Sur3, h3r3 y0u ar3 my fr3n», ​​заменяя каждую букву «E» цифрой три. То же самое касается буквы O, которая заменяется на ноль. 

Хакер уже успел выпустить версию Godmode 2.0. Её пока не удалили, а доступ могут получить владельцы подписки Plus.

Между тем исследователи получили доступ к библиотеке токенов GPT-4o и извлекли список из 100 самых длинных китайских токенов, которые ИИ использует для анализа и вывода подсказок на китайском языке. Пользователи из КНР пожаловались, что GPT-4o выдаёт ответы со спамом и элементами порно.

Источник: habr.com

0 0 голоса
Рейтинг новости
0
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии