BrainTools - Методики для развития мозга

Навыки в OpenClaw: установка, создание и защита от вредоносных наборов

Я много раз наблюдал одну и ту же картину: кто-то устанавливает OpenClaw, запускает несколько задач, испытывает тот самый момент «ого!», а через два дня снова вручную присматривает за агентом, потому что тот постоянно уходит в сторону. Другие формулировки, другие шаги, другие допущения — но результат тот же. И это утомляет.Навыки работы с OpenClaw — это то, что превращает этот «дрейф» в нечто управляемое. Они не сделают агента идеальным — да и, если честно, идеал вам не нужен. Нужно предсказуемое поведение, чёткие границы и поменьше импровизации там, где она не к месту.Первое знакомство с системой навыков

продолжить чтение

Разбираем 14 самых популярных бенчмарков для LLM

Opus 4.5 набирает 80.6% на SWE-bench Verified. Opus 4 — 72.5%. Значит ли это, что Opus 4.5 лучше программирует, чем Opus 4?Ну... возможно. Но SWE-bench Verified это не показывает. Он показывает способность модели чинить небольшие баги в 12 популярных open source Python-репозиториях, которые почти наверняка входят в её обучающие данные. SWE-bench Verified не тестирует умение ориентироваться в вашем TypeScript-монорепо, Spring Boot-приложении или самописном ORM, на котором настоял предыдущий CTO.

продолжить чтение

Иллюзия логики: как я доказал, что LLM-агенты игнорируют факты, и почему Chain-of-Thought делает только хуже

Сейчас каждый второй стартап пилит ИИ-агентов. Мы оборачиваем LLM в цикл Промпт -> Вызов инструмента (API/Поиск) -> Чтение -> Ответ и ждем, что нейросеть сама расследует инцидент, найдет баг или напишет фичу. Но на практике автономные агенты часто ходят по кругу, галлюцинируют и застревают в бесконечных циклах.Индустрия пытается лечить это экстенсивно: наращивает контекстное окно до миллионов токенов или пишет в системном промпте заклинания вроде «подумай шаг за шагом и будь максимально объективен».

продолжить чтение

Как перестать использовать ИИ как чат-бота и начать автоматизировать рабочие процессы (Workflows)

Вспомните, что происходит после важной встречи с клиентом. Вам нужно:Вытащить итоговые задачи из заметок (action items)

продолжить чтение

После краха Sora Альтман переключается на ещё более разрушительную авантюру, чтобы похоронить OpenAI окончательно

Сэм Альтман не понимает технологии, не хочет понимать и считает, что ему это не нужно.

продолжить чтение

Мы заставили ИИ-модели торговать на бирже. И вот что из этого вышло

Могут ли языковые модели торговать на бирже — и не слить, а реально заработать? «Финам» завершил первый этап «Финам Арены

продолжить чтение

WACV 2026 в Тусоне: конференция, пустыня и немного экзистенции

Привет, Хабр! Я — Максим Куркин из лаборатории FusionBrain AIRI. Когда мне сказали «поедешь на WACV», первая мысль была — отлично, конференция. Вторая мысль — Тусон, Аризона. Пустыня Сонора. Кактусы‑сагуаро высотой с двухэтажный дом. +25°C в начале марта, когда в Москве ещё лежит снег. Круто!В итоге я провёл в командировке девять дней — с 5 по 13 марта. Два дня дороги в каждую сторону, пять дней конференции, немного пустыни вокруг. Поездка получилась насыщенной: и по науке, и по ощущениям, и очень хочется поделиться увиденным!

продолжить чтение

Как мы в CodeScoring модель для поиска секретов готовили

TLDR; За счёт новой модели удалось улучшить качество распознавания истинных секретов с 0.70 до 0.90 PR AUC.

продолжить чтение

  • Оставлено в 

Локальный ИИ: майнинг плата + 3 RTX 3090

В прошлый раз мы рассматривали локальный инференс на бюджетных ноутбуках, а потом я попытался запустить gpt-oss-120b на трех видеокартах. Протестировав модель в рабочих задачах, я понял что она может стать заменой облачным провайдерам. Однако, уже тогда стало понятно что десктопные материнские платы и корпуса не могут вместить в себя 3 RTX 3090. Поэтому я присмотрелся к майнерским решениям, где на материнских платах имеется большое количество PCI-слотов

продолжить чтение

Обменники криптовалют в Москва-Сити, риски по сравнению с P2P-обменом

продолжить чтение

  • Оставлено в