PDF ожил: Stanford превратил научные статьи в говорящих AI-ассистентов

Учёные из Стэнфорда представили Paper2Agent — open-source инструмент, который превращает привычные PDF-статьи в интерактивных AI-ассистентов. Теперь вместо сухого текста и громоздких репозиториев исследователь получает живую систему, способную объяснять работу простым языком, запускать код и комбинировать методы разных исследований.

Рисунок дает обзор CUDA-оптимизации, управляемой большими языковыми моделями (LLM), и основных результатов. Функциональный код PyTorch (слева) преобразуется в соответствующее ядро CUDA, которое затем загружается для замены операции PyTorch-eager. В центре схемы показан процесс оптимизации во время выполнения, использующий преобразованное ядро. Этот процесс параллельно выбирает, проверяет, тестирует и оценивает пакет ядер. Для обеспечения корректности и эффективной фильтрации ядер-кандидатов используются верификаторы на основе языковых моделей. Справа представлены результаты, демонстрирующие способность подхода точно определять некорректные ядра (вверху) и находить высокопроизводительные ядра (внизу) на предложенном robust-kbench. Отмечается, что улучшения времени выполнения сложнее достичь для обратных вычислений ядра, чем для прямых.

В основе проекта два ключевых слоя. Paper2MCP анализирует статью вместе с её кодом и превращает методы в полноценные инструменты внутри MCP-сервера. Дальше Agent Layer подключает этот сервер к чат-агенту вроде ChatGPT или Claude Code. В итоге каждая статья обретает своего персонального ассистента, который не только пересказывает её, но и выполняет заложенные в ней вычислительные эксперименты.

Наш эволюционный подход к оптимизации демонстрирует масштабируемость во время тестирования, обнаруживая лучшие ускорения с большим количеством попыток.

Каждый такой «сервер статьи» включает три элемента: Tools (функции, например прогноз экспрессии генов), Resources (тексты, датасеты, код) и Prompts (шаблоны пошаговых сценариев). Вместо того чтобы вручную поднимать окружения, импортировать десятки библиотек и гадать с форматами данных, исследователь может просто задать вопрос и сразу получить результат.

На рисунке показан конвейер и результаты настройки запросов для верификатора на основе больших языковых моделей (LLM). Слева представлен обзор рабочего процесса. Набор данных с предложениями ядер используется для итеративного улучшения способности LLM-верификатора обнаруживать ошибки. Справа вверху показаны результаты точности по поколениям для специализированных верификаторов, нацеленных на разные типы ошибок CUDA: ошибки компиляции, памяти и численные ошибки. Внизу справа демонстрируется, что настроенные запросы обобщаются на различные нижестоящие модели верификаторов.

Фактически Paper2Agent открывает путь к новому формату научной коммуникации: статьи перестают быть статичными и становятся рабочими инструментами. Это может ускорить воспроизводимость исследований, облегчить доступ к передовым методам и сделать науку гораздо более открытой.

GitHub-репозиторий проекта уже доступен!

Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Подробнее

Источник: habr.com

0 0 голоса
Рейтинг новости
1
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии