Claude сопротивляется
Перевод поста Скотта Александера, где он разъясняет недавнее исследование от Anthropic, в котором они экспериментально показали обманчивую согласованность.В смысле, ИИ ПРИТВОРЯЕТСЯ, ЧТОБЫ ЕГО НЕ ПЕРЕОБУЧИЛИ, А-А-А-А-А-А-А, если так понятнее. Оригинал.Гринблатт и пр. исследовали: если бы Anthropic попыталась сделать Claude злой, стала бы она сопротивляться?(если вы только присоединились — Claude это ИИ-модель, похожая на GPT-4; Anthropic — компания, которая её создала)
Автоматизация верификации кодовых датасетов подрядчиков с помощью LLM: снизили брак на 40% и сократили стоимость на 60%
Привет, Хабр! Меня зовут Федор Горбунов, руковожу в Doubletapp направлением автоматизации бизнес-процессов с помощью LLM. В статье расскажу, как мы помогли клиенту автоматизировать одну из операций в производственной цепочке, как эта автоматизация ускорила поставку итогового продукта, уменьшила количество ошибок за счет сокращения ручного труда и в конечном итоге сэкономила заказчику деньги.
Как LLM меняют архитектуру систем: от простых дата-пайплайнов к интеллектуальным автономным агентам
На каждой технической конференции в последнее время обязательно звучит слово «агенты». Они преподносятся по разному: и как следующая ступенька после RAG, и как серебряная пуля для всех проблем, и как абсолютная замена всех классических пайплайнов. А кто еще не использует агентов — безнадежно отстал от прогресса.Классика, LLM-ассистент и LLM-агент
Новая методика оптимизации LLM сокращает затраты памяти до 75%
Исследователи токийского стартапа Sakana AI разработали новую технологию, которая позволяет языковым моделям более эффективно использовать память. Это позволит предприятиям сократить расходы на создание приложений на основе больших языковых моделей (LLM) и других моделей на основе Transformer.Метод называется «
SandboxAQ создает новое поколение AI для бизнеса
В последние годы разговоры о корпоративном AI сосредоточились на LLM и генеративном AI . Однако, как показывает практика, есть и другие подходы, которые могут принести значительную пользу предприятиям. Одним из таких подходов являются крупные количественные модели LQM, которые обучаются на оптимизации специфических целей и параметров, таких как свойства материалов и финансовые риски. В этом контексте компания SandboxAQ выделяется как один из ведущих игроков, недавно привлекшая 300 миллионов долларов в новом раунде финансирования.
Яндекс представляет YaC 2024
Вышел новый YaC. Это большой рассказ про сервисы и технологии Яндекса, про то, как они создаются и какие возможности открывают. Посмотрев YaC 2024, можно узнать, что внутри у сервиса Нейро, на что способна роботизированная рука, как искусственный интеллект может облегчить труд разработчикам — и не только им — и реально ли обеспечить каждого школьника страны личным репетитором.
Эволюция архитектур нейросетей в компьютерном зрении: сегментация изображений
Всем привет. Сегодняшний материал — продолжение цикла статей про ключевые события в развитии архитектур нейросетей. В прошлый раз я рассказал о классификации изображений
Прогресс в AGI вызывает сомнения
Тест ARC-AGI (сокр. Abstract and Reasoning Corpus for Artificial General Intelligence), созданный в 2019 году ведущей фигурой в AI Франсуа Шолле для оценки способностей искусственного интеллекта к обучению, показывает улучшение результатов. Однако это может свидетельствовать скорее о недочетах в самом тесте, чем о реальном прорыве в развитии ИИ.
Обзор недавно выпущенной модели Evo для анализа геномных данных
Давайте представим, что вы начинающий или опытный биоинформатик, или "простой смертный", который хочет углубиться в анализ биологических данных. Спойлер: биоинформатики тоже смертные! Зачастую, не у каждого хватает ценного времени на проверку огромных последовательностей геномных данных, будь то поиск различных мутаций или прогнозирование структуры белков на основе последовательности аминокислот.Но не переживайте, в этом вам поможет искусственный интеллект
Что побуждает LLM врать и как этого избежать в своих продуктах
Одна из основных проблем использования больших языковых моделей (LLM) в бизнесе заключается в том, что LLM склонны к галлюцинациям. Как можно доверить своих клиентов чат-боту, который может слететь с катушек и в любой момент сказать что-то неуместное? Или как можно доверять корпоративному AI-ассистенту, если он рандомно придумывает факты?