Как сократить расходы на инференс LLM? Разберемся на вебинаре

Привет, Хабр! Присоединяйтесь к вебинару 22 августа в 16:00 мск. Особенно ждем ML- и MLOps-инженеров, Data Scientists и NLP-инженеров, CTO и менеджеров ML-проектов.

Поделимся опытом команды «Актион», которая сократила расходы на GPU на 60% и увеличила пропускную способность в 36 раз благодаря решению Compressa на инфраструктуре Selectel. 

Участникам дадим бесплатный двухнедельный тест LLM-платформы Compressa на инфраструктуре Selectel с GPU.

Зарегистрироваться →

Программа

Проблемы внешних API и open-source моделей «из коробки»

Способы оптимизации LLM-моделей на своем сервере

Сравнение производительности и стоимости токенов после оптимизации LLM

Инфраструктура Selectel для инференса LLM моделей

Кейс «Актион» и Compressa. Оценка окупаемости решения и использование LLM в продакшене

Ответы на вопросы

Спикеры

Владислав Кирпинский, директор по облачной интеграции, Selectel

Алексей Гончаров, CEO и founder, MIL Team

Валентин Шишков, ML Product Manager, MIL Team

Владимир Хаванских, Chief Data Scientist, Актион

Принять участие →

Источник: habr.com

0 0 голоса
Рейтинг новости
2468
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии