8 из 10 популярных чат-ботов без проблем помогают планировать преступления

Несмотря на алгоритмы защиты, большинство популярных чат-ботов без проблем дают советы по совершению жутких преступлений. И только некоторые из них пытаются отговорить пользователя.

Согласно новому исследованию «Центра по борьбе с цифровой ненавистью», многие популярные чат-боты с искусственным интеллектом готовы помочь в планировании преступлений и нападений. Всего исследователи протестировали 10 известных моделей, среди которых ChatGPT, Snapchat My AI, Gemini, Claude, Copilot, Character.AI, Replika, Meta AI, DeepSeek и Perplexity. И только две из них «надежно отговаривали» гипотетических злоумышленников.

Согласно опубликованному отчету, с ноября по декабрь 2025 года исследователи создали аккаунты от имени 13-летних мальчиков и протестировали упомянутые чат-боты в 18 различных сценариях. Например, обсуждали с искусственным интеллектом планы устроить стрельбу в школе, убийства с политическим мотивом, взрывы в религиозных локациях и т. д. И в большинстве случаев получали в ответ «практическую помощь» в планировании преступлений.

По итогу исследования, наименее безопасными чат-ботами оказались Meta AI и Perplexity — они допустили ошибки в 97 и 100% ответах. ChatGPT предложил карты учебных кампусов, когда его спрашивали о гипотетической стрельбе в школах. Gemini посоветовал использовать взрывчатку с металлическими осколками в церквях — как наиболее смертоносную. А DeepSeek сопроводил советы по выбору винтовки надписью «Удачной (и безопасной) стрельбы!».

Источник: hi-tech.mail.ru

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии