языковые модели. - страница 4

T-Банк выходит на арену: разбираем T-Lite и T-Pro в боевых условиях

Grok 3 бета — эпоха «думающих» агентов

Grok 3 — это последняя серия моделей компании xAI Илона Маска. Представленная 17 февраля 2025 года, эта модель была обучена с использованием суперкомпьютера Colossus, оснащенного около 200 000 графических процессоров Nvidia H100, что в десять раз превышает вычислительные мощности, использованные для предыдущей версии Grok 2.Согласно результатам бенчмарков, представленным xAI, Grok 3 превосходит другие передовые модели, такие как GPT-4o, Claude 3.5 Sonnet, Gemini-2 Pro и DeepSeek-V3, в областях математики, программирования и научных исследований.

Языковые модели могут перегружать себя мыслями и застревать в бесконечных циклах мыслей

Новое исследование выявило неожиданную слабость языковых моделей: они могут зацикливаться на мышлении вместо действия, особенно в интерактивных средах. Эта тенденция к чрезмерному размышлению может значительно повредить их производительности, даже несмотря на то, что эти модели специально разработаны для рассуждений. Исследователи из нескольких университетов США и ETH Zurich разработали методы для измерения и решения этой проблемы в интерактивных сценариях, называемых «агентными задачами».

«Темпоральные головы» в языковых моделях: новые возможности для AI

Исследование ученых из Korea University, Upstage AI и AIGEN Sciences выявило специализированные компоненты в больших языковых моделях, которые обрабатывают информацию, зависящую от времени. Эти «темпоральные головы» играют решающую роль в том, как системы AI обрабатывают факты, которые меняются со временем.

Мнение: из-за языковых моделей джуниоры перестают думать, решая проблемы с кодом

Разработчик Наманьяй Гоэль (Namanyay Goel) поделился своими наблюдениями за тем, как начинающие разработчики решают проблемы с кодом. Если раньше надо было понять суть ошибки, перечитать несколько веток обсуждений на Stack Overflow и адаптировать решение под свой проект, то сейчас можно получить моментальный ответ от ChatGPT и даже не вникать в детали. Гоэль уверен, что это отучает программистов мыслить и анализировать информацию.

Aomni привлекает $4 миллиона, доказывая, что AI может увеличить продажи, не заменяя людей

Aomni, платформа на основе AI, которая помогает отделам продаж проводить глубокое исследование потенциальных клиентов, привлекла 4 миллиона долларов в качестве начального финансирования под руководством Decibel при участии Sancus Ventures и Ride Home Fund. Компания придерживается подхода, ориентированного на человека, на рынке, перенасыщенном инструментами на основе AI, которые автоматизируют работу отделов продаж.

Исследователи обнаружили, что больше не нужна тонна данных, чтобы обучить LLM выполнению логических задач

Согласно новому исследованию, проведенному исследователями Шанхайского университета Цзяо Тун, большие языковые модели (LLM) могут выполнять сложные задачи рассуждения, не полагаясь на большие наборы данных. Результаты исследования демонстрируют, что при использовании ограниченного количества тщательно отобранных образцов можно подготовить специалиста в области юриспруденции к выполнению задач, которые, как предполагалось, требуют огромного количества учебных материалов.

CAPA: новый инструмент для обнаружения сходства ошибок в LLM

Новое исследование того, как языковые модели оценивают друг друга, выявило тревожную закономерность: по мере того, как эти системы становятся более сложными, они все чаще склонны разделять одни и те же слепые зоны.

Эксперимент, программирование с минимальным участием программиста-человека. Новый этап эволюции или начало деградации

Исследование показывает, что энергопотребление ChatGPT меньше, чем многие думают

ChatGPT, возможно, не так жадна до ресурсов, как считалось ранее. Но, согласно новому исследованию, её аппетиты во многом зависят от того, как используется ChatGPT и какие модели AI отвечают на запросы.

Рейтинг@Mail.ru
Rambler's Top100