Компания DeepSeek представила новую открытую модель для распознавания документов — DeepSeek-OCR. В отличие от классических систем оптического распознавания символов (OCR), она не просто извлекает текст со страниц, а сразу восстанавливает структуру документа: заголовки, списки, таблицы, подписи к рисункам. Результат можно получить в формате Markdown, который подходит для индексации и последующей работы нейросетей. DeepSeek-OCR распространяется под лицензией MIT и доступна на платформе Hugging Face.
Главная особенность новинки — «оптическое сжатие контекста». Модель не пересказывает каждую мелочь со страницы, а выжимает из нее только нужное: текст и смысловую структуру. Это сокращает объем данных в среднем в десять–двадцать раз и напрямую снижает стоимость обработки — ведь чем меньше токенов, тем дешевле и быстрее работает любая последующая языковая модель.
DeepSeek-OCR использует так называемые визуальные токены — условные «взгляды» на части изображения. Даже при небольшом бюджете (64–100 токенов) точность распознавания держится на уровне 97–99 %. Если страница слишком сложная, активируется режим Gundam: документ автоматически делится на отдельные фрагменты, и трудные области анализируются отдельно, без потери общей скорости. Модель также поддерживает привязку распознанных элементов к координатам на странице, что позволяет точно находить таблицы, подписи или схемы.
На тестовых наборах Fox и OmniDocBench система показала впечатляющие результаты. На Fox точность практически не падает даже при минимальном числе визуальных токенов, а степень сжатия достигает двадцатикратного. На OmniDocBench DeepSeek-OCR сохраняет низкую ошибку при заметно меньшем числе токенов, чем тяжелые мультимодальные модели вроде Qwen или GOT-OCR 2.0. Проще говоря, она даёт такое же качество, но требует гораздо меньше вычислений.
P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.
Источник: habr.com