Это обновление основано на мощной модели Qwen3, использующей триллионы многоязычных токенов и токенов для перевода, что позволяет значительно улучшить многоязычное понимание и возможности перевода модели. Благодаря интеграции методов обучения с подкреплением модель значительно повышает точность перевода и беглость речи.
Qwen-MT работает с 92 языками, обслуживая 95% населения планеты. Новая версия предоставляет расширенные возможности перевода, такие как терминологическая коррекция, подсказки по предметной области и память переводов.
Благодаря настраиваемым подсказкам повышается эффективность перевода в сложных, специализированных и критически важных сценариях применения. Архитектура MoE обеспечивает высокую производительность, быстрый отклик и низкие затраты ($0,5 за миллион токенов), что удобно для параллельных и чувствительных к задержкам приложений.
Экспериментальные результаты показывают, что Qwen-MT значительно превосходит модели сопоставимого размера, включая GPT-4.1-mini, Gemini-2.5-Flash и Qwen3-8B. Примечательно, что даже по сравнению с современными большими языковыми моделями, такими как GPT-4.1, Gemini-2.5-Pro и Qwen3-235B-A22B, Qwen-MT обеспечивает конкурентоспособное качество перевода, а его оптимизированная облегчённая архитектура позволяет быстро его выполнять.
Методы автоматической оценки имеют ограничения, поэтому была проведена человеческая оценка на десяти языках: китайском, английском, японском, корейском, тайском, арабском, итальянском, русском, испанском и французском. Три независимых переводчика оценивали каждый образец, после чего проводилась перекрестная проверка. Qwen-MT показал высокие результаты по проценту приемлемых и отличных переводов, подтверждая его эффективность в реальных сценариях.
Qwen-MT поддерживает такие функции, как терминологическое вмешательство, подсказки по предметной области и память переводов. Например, в сценарии перевода, где используются специализированные термины, пользователи могут заранее определить ключевые терминологические пары и ввести их в качестве параметров в модель, чтобы обеспечить единообразное применение заданного пользователем словаря во всех выходных данных.
Кроме того, стиль перевода должен соответствовать контекстуальным нюансам. Например, в юридическом и официальном контексте необходимо использовать формальный стиль, в то время как общение в социальных сетях требует разговорного тона.
Чтобы обеспечить правильную стилистическую адаптацию, пользователи могут указывать контекст и стилистические предпочтения на естественном языке вместе с исходным текстом.
Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!
Источник
Источник: habr.com