Разработчики Ollama выпустили обновление инструмента для локального запуска нейросетей. В нём появилась поддержка мультимодальности, возможность загружать файлы и другие функции. Обновление доступно для всех платформ, а для Windows и macOS выпустили обновлённый клиент.
Что нового в Ollama:
В интерфейсе чата появился переключатель для быстрой смены и загрузки моделей.
В чат теперь можно загружать документы для анализа. Для загрузки достаточно перетащить файл в окно Ollama. После этого можно задавать вопросы по документу. Важно помнить, что для работы с большими файлами в настройках надо увеличить длину контекста, что может сказаться на потреблении памяти.
Помимо документов в чат для анализа можно загружать изображения. Эта функция работает на базе мультимодального движка Ollama и работает только мультимодальными моделями, например, Gemma 3 от Google.
В чат можно загружать файлы кода. Например, можно загрузить файл проекта на Python и попросить модель сгенерировать документацию в Markdown.
Источник: habr.com