БЯМ.

Большая языковая модель «Авито» обогнала OpenAI и Google в бенчмарке MERA

Большая языковая модель A‑Vibe, разработанная «Авито», заняла первое место среди облегчённых моделей (до 10 млрд параметров) в российском бенчмарке MERA. Модель обошла аналоги от OpenAI, Google и Anthropic, рассказали информационной службе Хабра в пресс‑службе «Авито».Команда «Авито» разработала собственные генеративные модели A‑Vibe и A‑Vision, использовав на старте открытую модель. Open source модель плохо работала с русским языком, потому что данные включали 100 языков, а русский занимал 1%. Из‑за этого модель слабо понимала и генерировала тексты на русском.

Моделирование экономического поведения с использованием LLM: сравнение моделей в кейнсианском конкурсе красоты

В последние годы исследования по моделированию экономического поведения с использованием искусственного интеллекта (ИИ) набирают обороты. Особенно интересен вопрос: насколько большие языковые модели (LLM) способны имитировать поведение людей в классических экономических экспериментах. В данной статье анализируется, как современные LLM решают задачу кейнсианского конкурса красоты и как их результаты отличаются от экспериментов с реальными людьми в работах Nagel (1995) и Grosskopf & Nagel (2008).Почему это важно?

Исследование: ИИ плохо справляется со считыванием показаний часов

Учёные Эдинбургского университета проверили способность семи мультимодальных больших языковых моделей интерпретировать и генерировать различные типы информации, включая ответы на вопросы о времени на основе различных изображений часов и календарей. Исследователи пришли к выводу, что БЯМ испытывают трудности с этими базовыми задачами.

Foxconn запустила собственную большую языковую модель

Тайваньская Foxconn сообщила о создании собственной большой языковой модели (БЯМ) с возможностями рассуждения под названием FoxBrain. Обучение модели контрактного производителя Apple заняло всего четыре недели.

До 5 % новых статей «Википедии» содержат тексты от ИИ

Исследователи из России выяснили, что эмоции могут существенно повлиять на поведение больших языковых моделей

Исследователи из Института AIRI, ИСП РАН и Лаборатории искусственного интеллекта «Сбера» провели анализ влияния эмоциональных факторов на принятие решений большими языковыми моделями (LLM). Они изучили, как эмоции — гнев, печаль, радость, отвращение и страх — влияют на логику принятия решений в стратегических играх и этических дилеммах. Результаты исследования будут представлены на NeurIPS 2024 в Ванкувере, одном из ведущих мероприятий по искусственному интеллекту.

Чему может научить горилла Коко

4 июля 1971 года в зоопарке Сан-Франциско на свет появилась 50-я горилла, которая родилась в неволе. День рождения этой особи совпал с днём независимости США, который американцы отмечают запуском фейерверков. Поэтому обезьяну назвали Ханабико — «дитя фейерверков» по-японски. Мир знает эту удивительную гориллу под именем Коко.

Как работают языковые модели

Руководство вообще без жаргона

Google призналась, что демонстрация мультимодальности Gemini — это постановка

6 декабря вместе с семейством моделей Gemini компания Google показала видеоролик, где человек взаимодействует с мультимодальной языковой моделью. На видео пользователь общается голосом, рисует и показывает жесты, а Gemini распознаёт увиденное и всячески развлекает. Как заметили наблюдатели и как позже признала Google, видеоролик преувеличивает технические способности ИИ.

Даже если случайно переставить буквы в словах, GPT-4 понимает текст

Цветом выделена токенизация Для представления внутри трансформеров слова или их небольшие части преобразуются в токены. Кажется, что если перемешать в каждом слове буквы, то языковая модель на трансформерах потеряет всякую способность понимать текст. Авторы научной работы «Unnatural Error Correction: GPT-4 Can Almost Perfectly Handle Unnatural Scrambled Text» (arXiv:2311.18805) показали, что это не так. Как выяснилось, GPT-4 без проблем оперирует текстом, где в каждом слове все буквы случайно переставлены.

12
Рейтинг@Mail.ru
Rambler's Top100