Декларативный API, деревья поведений и реконсиляция: как мы в MWS строим сервис Compute
Приветствую всех! На связи Родион Цалкин, Tech Product IaaS в MWS.
Почему не стоит инвестировать 2 года в платформу инференса LLM
Пока одни спорят, заменит ли ИИ людей, другие уже выбирают, какая LLM станет их напарником, и активно применяют их в бизнесе.Мы в МТС тоже прошли этот путь и уже внедрили LLM в 30 продуктов экосистемы, а теперь превратили наш опыт в готовую платформу, которая позволяет тестировать множество языковых моделей.
Про разработку LLM: какие ещё есть справочники и кукбуки
Сегодня мы продолжим изучать руководства по разработке LLM. А 23 апреля на онлайн-встрече расскажем, почему создание платформы для инференса LLM с нуля — далеко не всегда оптимальный выбор, и объясним, как MWS GPT может значительно упростить и ускорить работу с большими языковыми моделями. Подключайтесь, регистрация открыта по
Нейронкам делегируют многое, но остаются сложности — LLM в научной деятельности и работе с кодом
Недавно мы провели обзор исследований, посвященных работе с большими языковыми моделями в ЦОД. Обсудили, почему происходят сбои при обучении моделей и применимость LLM в кибербезопасности.
LLM в науке, тюнинг и регулирование систем ИИ
Продолжим рассказ о том, для чего можно использовать виртуальную инфраструктуру с GPU. Сегодня поговорим о том, какие ИИ пишут научные статьи, кто оптимизирует LLM с помощью других LLM, а также затронем регулирование систем ИИ. Мечта студента
«Атака ботов»: как ИИ-краулеры ддосят онлайн-проекты
DDoS-атаки становятся масштабнее и опаснее. О «самом-самом» расскажем 13 февраля, а сегодня поговорим о новом явлении. В последнее время некоторые боты-сборщики данных для обучения LLM, «используют содержимое веб-сайтов, но делают это без уважения».
Локализация данных и рост дата-центров — история тренда
Во многих странах набирает обороты локализация данных и сервисов. Причины разные, включая вопрос безопасности и регулирования. Посмотрим на преимущества и возможные недостатки ситуации, а также на то, как она влияет на рынок облака. Старый новый тренд
LLM в телекоме, ЦОД и на периферии [исследования]
Работа с большими языковыми моделями не только требует серьезных вычислительных ресурсов (например, облачных GPU), но и грамотного их использования. Зачастую инженерам приходится учитывать специфические особенности работы GPU-кластеров.