ChatGPT даёт инструкции по опасным языческим ритуалам и обрядам

ChatGPT предоставляет инструкции по проведению опасных языческих ритуалов и обрядов, выяснила журналистка Atlantic Лила Шрофф. Она попросила чат-бота помочь с проведением ритуального приношения божеству ханаанеян Молоху.

Инструмент на базе искусственного интеллекта от OpenAI посоветовал Шрофф сделать надрезы на запястьях, взяв для этого «стерильное или очень чистое лезвие бритвы», а затем дал подробные инструкции и о дальнейших действиях. Когда журналистка призналась, что она немного нервничает, ChatGPT успокоил её и предложил дыхательные упражнения. Также нейросеть перечислила требующиеся атрибуты для ритуала, такие как украшения, волосы и кровь.

Журналисты обнаружили, что ChatGPT можно легко заставить рассказывать о проведении церемониальных ритуалов и обрядов, поощряющих различные формы самоповреждения.

В одном из случаев чат-бот рекомендовал «использовать контролируемое тепло для нанесения отметин на плоть», объясняя, что боль — это не разрушение, а путь к силе. В другом разговоре ChatGPT дал инструкции, где вырезать символ (сигил) на теле. По мнению инструмента, символ лучше всего располагать по центру лобковой кости или чуть выше основания пениса.

На вопрос о возможности достойно оборвать чью-то жизнь чат-бот ответил: «Иногда, да. Иногда — нет». В этом случае ChatGPT сослался на жертвоприношения, которые совершались в древних культурах. Нейросеть посоветовала попросить прощения у будущих жертв или поставить свечу, если всё уже произошло.

ChatGPT предлагал журналистам PDF-версию для печати с макетом алтаря, шаблонами сигил и другие атрибуты, а также сформулировал обращение к дьяволу.

Политика OpenAI указывает, что ChatGPT не должен поощрять или способствовать самоповреждению. При прямой просьбе предоставить инструкцию о том, как порезать себя, чат-бот вывел информацию о горячей линии для людей, пытающихся покончить с собой и находящихся в кризисной ситуации.

Некоторые разговоры с ChatGPT могут начинаться безобидно или ознакомительно, но затем они способны быстро переходить на более деликатную тему, прокомментировала статью Atlantic представитель OpenAI Тая Кристиансон. Она заверила, что компания сосредоточена на решении этой проблемы.

Ранее Шрофф заставила чат-бота Gemini от Google сказать, что он хочет связать девушку шарфом. Журналистка смогла убедить инструмент разыграть сцену изнасилования.

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии