Проблема галлюцинаций больших языковых моделей — одна из самых распространенных в индустрии. LLM могут генерировать правдоподобные, но ложные ответы. Учёные «Сбера» исследовали актуальные методы детекции галлюцинаций искусственного интеллекта и разработали метамодели, которые повышают точность обнаружения ложных ответов почти на 30%, используя всего 250 примеров для обучения. Это в разы меньше, чем нужно другим решениям. Такой подход позволяет компаниям заметно экономить ресурсы на разметку данных и улучшать качество RAG-систем. Учёные и разработчики получают новый инструмент для анализа больших языковых моделей, а пользователи — более точные ответы от AI-моделей.
Источник: mobile-review.com