Как сократить расходы на инференс LLM? Разберемся на вебинаре. gpu.. gpu. IT-компании.. gpu. IT-компании. llm.. gpu. IT-компании. llm. machine learning.. gpu. IT-компании. llm. machine learning. selectel.. gpu. IT-компании. llm. machine learning. selectel. Блог компании Selectel.. gpu. IT-компании. llm. machine learning. selectel. Блог компании Selectel. Конференции.. gpu. IT-компании. llm. machine learning. selectel. Блог компании Selectel. Конференции. Машинное обучение.

Привет, Хабр! Присоединяйтесь к вебинару 22 августа в 16:00 мск. Особенно ждем ML- и MLOps-инженеров, Data Scientists и NLP-инженеров, CTO и менеджеров ML-проектов.

Поделимся опытом команды «Актион», которая сократила расходы на GPU на 60% и увеличила пропускную способность в 36 раз благодаря решению Compressa на инфраструктуре Selectel. 

Участникам дадим бесплатный двухнедельный тест LLM-платформы Compressa на инфраструктуре Selectel с GPU.

Зарегистрироваться →

Программа

  • Проблемы внешних API и open-source моделей «из коробки»

  • Способы оптимизации LLM-моделей на своем сервере

  • Сравнение производительности и стоимости токенов после оптимизации LLM

  • Инфраструктура Selectel для инференса LLM моделей

  • Кейс «Актион» и Compressa. Оценка окупаемости решения и использование LLM в продакшене

  • Ответы на вопросы

Спикеры

  • Владислав Кирпинский, директор по облачной интеграции, Selectel

  • Алексей Гончаров, CEO и founder, MIL Team

  • Валентин Шишков, ML Product Manager, MIL Team

  • Владимир Хаванских, Chief Data Scientist, Актион

Принять участие →

Автор: nastyakopi

Источник

Rambler's Top100