OpenAI выпустила бесплатные модели для модерации контента

OpenAI открыла доступ к новым моделям для модерации контента под названием GPT-OSS Safeguard. Это две открытые модели — gpt-oss-safeguard-120b и gpt-oss-safeguard-20b, созданные специально для распознавания и фильтрации опасных или неприемлемых данных.

Модели можно использовать для проверки отзывов, форумов, комментариев и любых пользовательских текстов. Они определяют токсичность, спам, мошенничество и скрытые манипуляции, а также позволяют разработчикам самим задавать политику модерации.

Как и оригинальная gpt-oss, Safeguard-модели умеют рассуждать и показывать цепочку мыслей — объяснение, почему тот или иной фрагмент текста был помечен как подозрительный.

OpenAI заявила, что цель проекта — создать универсальный инструмент для безопасного интернета, где разработчики смогут внедрять модерацию без необходимости обращаться к закрытым API. Модели доступны бесплатно и опубликованы на Hugging Face.

Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии