BrainTools - Методики для развития мозга

«ИИ масштабнее, чем Covid»? Почему 85 миллионов человек ошибаются насчёт ИИ и рабочих мест

«Происходит что-то масштабное». «Большинство людей не узнает об этом, пока не станет слишком поздно».

продолжить чтение

Почему дата-центры будущего откажутся от переменного тока

На конференции Nvidia GTC 2026 ключевые игроки энергетики представили архитектуры, в которых переменному току больше нет места. Причина проста и болезненна. Традиционная серверная стойка потребляет около 10 кВт, но ИИ-стойки подбираются к 1 МВт. При этом электричество проходит абсурдный квест: сетевой AC понижается, преобразуется в DC для батарей, снова в AC, и опять в DC — потому что чипам нужен именно постоянный ток. Каждое преобразование съедает энергию и требует оборудования. Одна мегаваттная стойка — это 200 кг медных шин. Гигаваттный дата-центр — 200 тонн меди только на проводку. 

продолжить чтение

Топ нейросетей для работы с таблицами: Zoho, BotHub, GPTExcel и другие

Думаю, каждый, кто хоть раз пытался подготовить отчёт к утру понедельника, сталкивался с этим чувством. Когда в таблице 500 строк, в каждой какой-то текст, а начальник просит просто выделить главное. Просто, да.

продолжить чтение

СМИ: «Бывшие работники „Лесты“ запустили игровую студию и ищут 3,6 млрд рублей на разработку симуляторов дронов»

Блог «Грозный Киберпанк» рассказал

продолжить чтение

RAG вместо GPT: как мы сделали внутреннего ассистента для корпоративных данных

В больших компаниях поиск почти всегда «работает». Но это не значит, что сотрудники быстро находят нужное: нередко они тратят часы на попытку вспомнить формулировку, место и контекст.Мы построили внутренний RAG-ассистент в закрытом контуре: изоляция данных, контроль доступа, бенчмарки качества и долгая  работа с вендором. В статье — архитектура, переговоры  с вендором, ошибки, компромиссы и выводы для тех, кто думает о корпоративном ИИ всерьёз.

продолжить чтение

Готовим ИИ-агента к продакшену

Готовим ИИ-агента к продакшену

продолжить чтение

TAPe‑дневник, день 6: синтетика, эмбеддинги и первый уход от трансформеров

В этой статье продолжаем онлайн‑дневник экспериментов с TAPe‑подходом к компьютерному зрению на COCO. Здесь – про обучение эмбеддингов на полностью синтетических TAPe‑данных, 74% точности классификации на 5k val‑изображениях и первые выводы о том, почему стандартные трансформеры нам не подходят.Если вы тут впервые, сначала можно посмотреть:базовую статью про TAPe+ML — TAPe + ML: универсальная архитектура компьютерного зренияFAQ по TAPe‑детекции —

продолжить чтение

Квантизация с нуля: как запустить 160ГБ LLM на ноутбуке и не потерять в качестве

Qwen-3-Coder-Next — модель с 80 миллиардами параметров и весом 159,4 ГБ. Примерно столько RAM потребовалось бы для её запуска, и это ещё без учёта длинного контекстного окна. И эта модель не считается большой моделью! По слухам, у frontier-моделей более триллиона параметров, для которых понадобилось бы минимум 2 ТБ оперативной памяти. Последний раз я видел столько RAM в одной машине — никогда.

продолжить чтение

Вайб-кодинг: конструктор для профи или магия для новичков? Разбираемся на реальном кейсе

продолжить чтение

За год стоимость оперативной памяти DDR4 выросла почти в 9 раз

С февраля 2026 года стоимость модулей оперативной памяти DDR4 ёмкостью 8 ГБ выросла в 8,8 раз, пишет IT Home со ссылкой на Nikkei Asian Review. Если в начале прошлого года средняя планка ОЗУ четвёртого поколения стоила около $15, то спустя год её цена превысила $130.

продолжить чтение

Rambler's Top100