Представлена языковая модель с линейной сложностью вычислений и контекстом до 12 млн токенов
Кратко: стартап Subquadratic представил SubQ 1M-Preview — первую языковую модель с линейной сложностью вычислений относительно длины контекста. Заявлены контекст до 12 млн токенов, скорость в 52 раза выше FlashAttention и радикальное снижение стоимости. Независимых тестов пока нет (хотя стартап заявляет о сторонней верификации своих бенчмарков), доступ закрыт. Техническое сообщество реагирует сдержанно: пока это амбициозный пресс-релиз, а не готовый инструмент.
Как собрать пайплайн с LLM агентом использующим эмуляторы Android девайсов
Какую проблему решаемLLM пока не может хорошо обращаться с Е2Е автотестами потому что для этого нужно провести целый комплекс мероприятий. Сложность возникает уже на этапе запуска такого автотеста. В отличии от юнит автотестов, Е2Е автотесты почти всегда PageObject и целый проект со своей архитектурой на базе Selenium Appium Espresso и тд.Чем может быть полезна эта статьяВ данной статье я постараюсь описать подход с которым можно сделать агента использующего MCP инструменты для взаимодействия с эмуляторами. Заодно приведу простой пример чем отличается модель от агента и как они взаимодействуют между собой.Строим пайплайн
PayPal станет позиционировать себя как технологическую компанию с ИИ
Несмотря на падение акций и надвигающиеся сокращения, генеральный директор PayPal Энрике Лорес заявил инвесторам, что компании необходимо «вновь сосредоточиться на фундаментальных принципах», включая «возвращение к статусу технологической компании».
Apple согласилась выплатить владельцам iPhone $250 млн за введение в заблуждение по поводу Apple Intelligence
Apple согласилась выплатить $250 млн владельцам iPhone для урегулирования иска, в котором компанию обвинили во введении клиентов в заблуждение относительно доступности функций Apple Intelligence. Предложенное соглашение распространяется на жителей США, купивших все модели iPhone 16 и iPhone 15 Pro в период с 10 июня 2024 года по 29 марта 2025 года.
Machine Unlearning. Как измерить и достичь «забывания»?
Всем привет! Меня зовут Вадим, я — Data Scientist в компании Raft. Эта статья написана по мотивам моего выступления на конференции AiConf 2025. В ней мы разберём, какими метриками измеряется машинное разучивание и какие основные методы позволяют добиться контролируемого «забывания» без полного переобучения модели. Погрузимся в методы, метрики и бенчмарки, связанные с машинным разучиванием.В первой части
О бедном луддите замолвите слово…
или "Страшная сказка: продолжение"Когда появляется очередной прогноз катастрофического характера, в ответ всегда поступают возражения определённых типов. Эти возражения повторяются из дискуссии в дискуссию и обычно строятся на исторических аналогиях («раньше тоже боялись, и всё обошлось»), идеологических убеждениях («рынок решит», «государство справится», «технологии всегда побеждают»), психологических защитах («это не может быть так плохо»).Часть этих возражений содержит зерно истины
Wayback Machine столкнулся с проблемами при закупке носителей информации из-за бума ИИ
Сервис Wayback Machine, управляемый некоммерческой организацией Internet Archive, оказался в кризисе из-за того, что новостные агентства всё чаще блокируют работу его веб-сканеров. Кроме того, архив больше не может закупать носители информации из-за их резкого подорожания, связанного с бумом искусственного интеллекта.
Как настроить AI-агента под проект: контекст, rules, skills, MCP — конспект двух вебинаров
Эта статья - выжимка двух наших апрельских вебинаров с разработчиком агента Михаилом Костицыным. По общим тезисам каждый может проверить выводы у себя.Записи вебинаров на RuTube: — Вебинар 1 — AI-инструменты для разработчиков 2026 — Вебинар 2 — Настройка проекта под агента
Обратное распространение ошибки: от интуиции до кода
Введение.Современные нейросети часто воспринимаются как черная магия. Вы закидываете в черный ящик датасет, ждете пару часов, и вот уже модель пишет за вас код, генерирует картины и безошибочно отличает собаку от выпечки. Но под капотом нет никаких заклинаний. Вся эта вычислительная мощь держится на одном элегантном алгоритме, основы которого были заложены еще в 1970-х годах — обратном распространении ошибки (Backpropagation).Сейчас порог входа в машинное обучение низок как никогда. Чтобы заставить сеть учиться, достаточно написать loss.backward() в PyTorch или вызвать model.fit()
Инструменты для редакций СМИ 2026: 62 сервиса, чтобы не получить дрянь на выходе
Разбила статью на блоки по задачам, в каждом 3–5 инструментов. Если неохота читать всю портянку, держите оглавление. Ищите, что пригодится, и идите сразу в нужный раздел.Сбор источников – RSS.app, Feedly, Inoreader, свои парсеры на Python или n8n.Фактчек (сверка цифр с первоисточником) – Perplexity, GPT-5 web search, Claude Projects, руками для сложного.Бэки и прецеденты (расширение текста контекстом) – отдельная задача от фактчека. Для русскоязычной повестки реально работает API Яндекс.Поиска, для международных тем Perplexity.Корректура
