Неожиданный баг стал горячей темой для обсуждения в социальных сетях. Рассказываем, что об этом известно.
Пользователи сети выяснили, что ChatGPT не способен отвечать на запросы, в которых упоминаются некоторые имена. Например, при попытке указать, «Брайан Худ» или «Джонатан Терли» на английском языке бот выдает ошибку или мгновенно завершает беседу. Подобное поведение вызвало активное обсуждение в соцсетях и стало поводом для множества теорий.
Изначально пользователи обнаружили проблему, вводя имя «Дэвид Майер». Вместо ответа бот отказывался генерировать текст, что было расценено как баг. Однако углубленный анализ показал, что причина связана с жесткими фильтрами, которые встроены в систему ChatGPT.
Как работают фильтры ChatGPT
Для защиты от распространения вредной информации разработчики OpenAI добавили в ChatGPT ограничения, блокирующие упоминание определенных имен. Эти фильтры включают известные личности, о которых бот может случайно выдать ложную информацию. Например, в случае с Брайаном Худом модель выдумала, что он был осужден за взяточничество, хотя в реальности он являлся разоблачителем корпоративных махинаций.
Судебное разбирательство вынудило OpenAI внедрить «хардкод» — жесткий запрет на обработку имени. Впоследствии подобные меры были приняты и для других фигур, таких как юрист Джонатан Терли, чье имя система ранее связывала с вымышленным скандалом.
Источник: hi-tech.mail.ru