Allen Institute for AI представил Deep Research Tulu, открытую модель на 8 миллиардов параметров, предназначенную для сложного анализа и глубокого поиска информации. Tulu позволяет создавать интеллектуальных агентов, способных самостоятельно планировать исследование, обращаться к внешним источникам, собирать данные с разных платформ и предоставлять ответы с точными ссылками на источники. Такой подход делает её мощным инструментом для научной работы, аналитики и корпоративного анализа.
Модель обучалась с использованием метода RLER (Reinforcement Learning with Evolving Rubrics). В отличие от классических систем с фиксированными наградами, RLER использует динамические критерии оценки, которые адаптируются по мере обучения модели. Это позволяет агентам Tulu анализировать контекст более глубоко и избегать поверхностного угадывания ответов, что часто встречается у стандартных моделей с жесткими правилами наград.
По данным разработчиков, Tulu не уступает решениям OpenAI и Perplexity на задачах, связанных с long-form research, но работает значительно дешевле. Стоимость выполнения сложного запроса составляет менее одного цента, тогда как аналогичная задача у коммерческих моделей может доходить до $1.80. Это открывает возможности для широкого внедрения в образовательные, научные и коммерческие проекты.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Tulu также предоставляет удобный интерфейс для построения кастомных агентов. Пользователи могут настраивать источники данных, определять последовательность шагов исследования и интегрировать внешние API для расширенной аналитики. Модель подходит для работы с большими корпусами текстов, научными публикациями, отчетами и данными из интернета.
Все подробности, инструкции и примеры использования доступны на официальном блоге Ai2.
Источник: habr.com