Хакер заставил ChatGPT предоставить подробные инструкции по изготовлению самодельных взрывных устройств

ChatGPT по заверению разработчиков не распространяет опасную информацию, но похоже, его можно обмануть и заставить выдавать пошаговые инструкции по созданию бомбы из удобрений.

Исследование показало наличие потенциальной уязвимости в больших языковых моделях, таких как ChatGPT. Хакер смог успешно манипулировать искусственным интеллектом, чтобы тот предоставил подробные инструкции по созданию бомбы из удобрений, что вызывает опасения по поводу злоупотребления такой технологией.

Хотя обычно ChatGPT придерживается правил безопасности и отклоняет запросы о вредоносной информации, этот инцидент демонстрирует, что сложные техники формулировки запросов могут обойти эти меры предосторожности.

Эксперты выразили тревогу по поводу потенциальных последствий такой уязвимости, подчеркнув необходимость усиления мер безопасности и этических соображений при разработке и внедрении систем искусственного интеллекта. Чем более человечными становятся большие языковые модели (LLM), тем больше возможностей для социальной манипуляции ими может применяться.

В связи с этим важно разработать эффективные методы защиты от подобных атак, чтобы минимизировать потенциальные риски в будущем.P.S. Пока непонятно, подвержена ли данной уязвимости новая модель OpenAI o1.

Источник: habr.com

0 0 голоса
Рейтинг новости
9933
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии