llm.
Ванесса — милый ИИ-администратор для музыкального театра
Все началось одним из хмурых осенних вечеров, супруга с группой из 15 детей и 5 родителями отправлялись на очередной конкурс. Шумная актерская тусовка просочилась через турникеты ЖД станции, а я поехал домой, одновременно строя планы на то, как ближайшие несколько дней в тишине буду готовить хозяйство к зиме.Полчаса все шло по плану, но тут прилетел звонок: «Дорогой, помоги найти обратные билеты». А еще спустя час и море слез оказалось, что билеты она не купила потому, что думала, что купила — как в анекдоте.
Французский стартап представил линейку Mistral 3: 675 миллиардов параметров в open source
Компания Mistral AI выпустила новое поколение своих моделей — Mistral 3. В релиз вошли три небольших плотных модели (3B, 8B и 14B), а также флагманская Mistral Large 3 — разреженная Mixture-of-Experts-архитектура с 41B активных и 675B общих параметров. Все модели распространяются под Apache 2.0, что делает Mistral 3 одним из крупнейших полностью открытых релизов в сегменте frontier-класса.
LLM Observability & AI Agent Tracing: большой гайд с обзором подходов и open-source решений
В этой статье я структурировал весь опыт и подходы к тому, как мониторить и трейсить LLM и AI-агентов на их основе. Это очень большая и тяжелая статья, но мне хотелось полностью закрыть всю тему за раз и создать крепкий бейзлайн для погружения в тему observability и трейсинга агентов.Поговорим про то, почему все LLM-based решения требуют новых подходов, обсудим ключевые проблемы агентов, посмотрим пару самых популярных решений и обзор всех опенсорсных и зафиналим трендами и направлением, куда все это движется.
LatentMAS: Секрет AI-агентов, которые думают без слов, работают точнее и экономят до 80% токенов
Если отбросить маркетинговый флёр вокруг «агентных систем», реальность довольно прозаична: как только вы собираете цепочку из нескольких LLM‑агентов, ваш счёт за токены и latency улетает в стратосферу. Судя по экспериментам в LatentMAS, классический текстовый multi‑agent‑пайплайн для олимпиадных задач уровня AIME‑24/25 легко выжигает десятки тысяч выходных токенов на одну единственную задачу, нередко переваливая за планку в 20к токенов для одного решения. И это не абстрактная проблема академиков: любой, кто пытался склеить ReAct/
Security Week 2549: вредоносные LLM без ограничений
Использование языковых моделей во вредоносной деятельности является достаточно свежим феноменом, который, впрочем, активно изучается. Так, в этой публикации
Мульти-модельная оркестрация LLM: архитектура маршрутизации, которая снизила затраты в 117 раз
Как мы провели 12,000+ API-вызовов к 11 моделям, открыли правило 60-70, и построили систему маршрутизации с ROI 4,853xКонтекст: кто пишет и о чём эта статьяИгорь Масленников. В IT с 2013 года. Последние два года развиваю AI Dev Team в DNA IT — подразделение, которое работает на мульти-модельной архитектуре. Это техническая статья о том, как мы построили систему оркестрации LLM-моделей для платформы генерации образовательных курсов.Статья для тех, кто:Строит AI-продукты и упирается в стоимость APIДумает о мульти-модельной архитектуре, но не знает, с чего начать
Сравнительный анализ 18 LLM моделей: конец монополии?
Сравнительный анализ 18 LLM моделей: конец монополии?Ноябрь 2025 — месяц, когда open-source модели официально догнали проприетарные. Разбираем, что произошло, кто теперь на вершине, и как это использовать в своих проектах.

