llm. - страница 6

llm.

Ванесса — милый ИИ-администратор для музыкального театра

Все началось одним из хмурых осенних вечеров, супруга с группой из 15 детей и 5 родителями отправлялись на очередной конкурс. Шумная актерская тусовка просочилась через турникеты ЖД станции, а я поехал домой, одновременно строя планы на то, как ближайшие несколько дней в тишине буду готовить хозяйство к зиме.Полчаса все шло по плану, но тут прилетел звонок: «Дорогой, помоги найти обратные билеты». А еще спустя час и море слез оказалось, что билеты она не купила потому, что думала, что купила — как в анекдоте.

продолжить чтение

Французский стартап представил линейку Mistral 3: 675 миллиардов параметров в open source

Компания Mistral AI выпустила новое поколение своих моделей — Mistral 3. В релиз вошли три небольших плотных модели (3B, 8B и 14B), а также флагманская Mistral Large 3 — разреженная Mixture-of-Experts-архитектура с 41B активных и 675B общих параметров. Все модели распространяются под Apache 2.0, что делает Mistral 3 одним из крупнейших полностью открытых релизов в сегменте frontier-класса.

продолжить чтение

Как сжимать языковые модели без дообучения

продолжить чтение

LLM Observability & AI Agent Tracing: большой гайд с обзором подходов и open-source решений

В этой статье я структурировал весь опыт и подходы к тому, как мониторить и трейсить LLM и AI-агентов на их основе. Это очень большая и тяжелая статья, но мне хотелось полностью закрыть всю тему за раз и создать крепкий бейзлайн для погружения в тему observability и трейсинга агентов.Поговорим про то, почему все LLM-based решения требуют новых подходов, обсудим ключевые проблемы агентов, посмотрим пару самых популярных решений и обзор всех опенсорсных и зафиналим трендами и направлением, куда все это движется.

продолжить чтение

LatentMAS: Секрет AI-агентов, которые думают без слов, работают точнее и экономят до 80% токенов

Если отбросить маркетинговый флёр вокруг «агентных систем», реальность довольно прозаична: как только вы собираете цепочку из нескольких LLM‑агентов, ваш счёт за токены и latency улетает в стратосферу. Судя по экспериментам в LatentMAS, классический текстовый multi‑agent‑пайплайн для олимпиадных задач уровня AIME‑24/25 легко выжигает десятки тысяч выходных токенов на одну единственную задачу, нередко переваливая за планку в 20к токенов для одного решения. И это не абстрактная проблема академиков: любой, кто пытался склеить ReAct/

продолжить чтение

Security Week 2549: вредоносные LLM без ограничений

Использование языковых моделей во вредоносной деятельности является достаточно свежим феноменом, который, впрочем, активно изучается. Так, в этой публикации

продолжить чтение

RAG-помощник для команды саппорта своими руками

продолжить чтение

Мульти-модельная оркестрация LLM: архитектура маршрутизации, которая снизила затраты в 117 раз

Как мы провели 12,000+ API-вызовов к 11 моделям, открыли правило 60-70, и построили систему маршрутизации с ROI 4,853xКонтекст: кто пишет и о чём эта статьяИгорь Масленников. В IT с 2013 года. Последние два года развиваю AI Dev Team в DNA IT — подразделение, которое работает на мульти-модельной архитектуре. Это техническая статья о том, как мы построили систему оркестрации LLM-моделей для платформы генерации образовательных курсов.Статья для тех, кто:Строит AI-продукты и упирается в стоимость APIДумает о мульти-модельной архитектуре, но не знает, с чего начать

продолжить чтение

Как я выбираю LLM (large language model) для своих задач?

продолжить чтение

Сравнительный анализ 18 LLM моделей: конец монополии?

Сравнительный анализ 18 LLM моделей: конец монополии?Ноябрь 2025 — месяц, когда open-source модели официально догнали проприетарные. Разбираем, что произошло, кто теперь на вершине, и как это использовать в своих проектах.

продолжить чтение

1...456789...2030...140
Rambler's Top100