BrainTools - Методики для развития мозга - страница 369

Крупнейшие научные открытия 2023 года

Нейротрофический фактор мозга поддается тренировке

 Даный опус -- краткий и весьма неполный пересказ статьи из последней рассылки Rhonda Patrick, Ph. D., когда-то (давно) специализировавшейся в области биологии клетки человека и даже написашей несколько публикаций (более десяти лет тому назад), признанных ученым сообществом. Правда, сейчас Rhonda Patrick все больше напоминает Instagram/YouTube селебрети, хотя и продвигающей здравую идею, что умный, научнообоснованный подход к образу жизни может серьезно улучшить качество этой самой жизни. Даже в самые зрелые годы. 

Память человеков. Отлаженный механизм или баг на баге?

Всем привет! Сегодня мне вдруг захотелось поговорить о том, как работает память. О процессах, ошибках и вот этом вот всем. Для более полного понимания советую прочесть статьи о когнитивных искажениях (часть 1, часть 2,

OpenAI: ChatGPT начал «лениться» и иногда не отвечает на вопросы

OpenAI подтвердила в треде в X (Twitter), что получает жалобы от некоторых пользователей. Они утверждают, что в последнее время при использовании GPT-4 или ChatGPT API чат-бот либо отказывается отвечать на вопросы, либо прерывает разговор. По данным The Independent, вышеуказанные проблемы обычно

Google призналась, что демонстрация мультимодальности Gemini — это постановка

6 декабря вместе с семейством моделей Gemini компания Google показала видеоролик, где человек взаимодействует с мультимодальной языковой моделью. На видео пользователь общается голосом, рисует и показывает жесты, а Gemini распознаёт увиденное и всячески развлекает. Как заметили наблюдатели и как позже признала Google, видеоролик преувеличивает технические способности ИИ.

Редактор коннектома

Google представила ИИ-модель Gemini, которая обходит GPT-4 в большинстве тестов

Google объявила о запуске главного конкурента ChatGPT — ИИ-модели Gemini

Даже если случайно переставить буквы в словах, GPT-4 понимает текст

Цветом выделена токенизация Для представления внутри трансформеров слова или их небольшие части преобразуются в токены. Кажется, что если перемешать в каждом слове буквы, то языковая модель на трансформерах потеряет всякую способность понимать текст. Авторы научной работы «Unnatural Error Correction: GPT-4 Can Almost Perfectly Handle Unnatural Scrambled Text» (arXiv:2311.18805) показали, что это не так. Как выяснилось, GPT-4 без проблем оперирует текстом, где в каждом слове все буквы случайно переставлены.

Ответ ChatGPT длиннее, если пообещать чаевые

@voooooogel Микроблогер поделилась забавным наблюдением про работу ChatGPT: языковая модель реагирует на обещание дать чаевые и отвечает чуть подробнее. Хотя чат-бот не имеет возможности получить оплату, размер ответа всё равно незначительно вырастает.

Microsoft Research выпустила Orca 2 LLM, способную сравниться по производительности с крупными моделями

Microsoft Research объявила о выпуске Orca 2, второй версии своей языковой модели Orca. В своём блоге Microsoft заявила, что Orca 2 была разработана как LM меньшего размера, но её всё равно можно использовать для ответов на сложные вопросы наравне с LLM. 

Рейтинг@Mail.ru
Rambler's Top100