llm. - страница 5

llm.

Люди и LLM похожи больше, чем вы думаете. У нас тоже есть системный промпт, контекст и всё остальное

Люди и модели похожи больше, чем вы думаете. Собственно, это и не удивительно, ведь модели для этого и создаются. В идеале они должны когда-нибудь стать вообще неотличимыми от людей. Но как это проявляется сейчас, на данном этапе их развития? И в чем конкретно мы так похожи на них, или они на нас? Подойдем к этому вопросу в терминах, свойственных самим LLM.

продолжить чтение

Исследователи продемонстрировали джейлбрейк по взлому роботов с ИИ

IEEE Spectrum представил отчёт с описанием случая, когда взломанные роботы могли использоваться для вредящих людям действий. Исследователи отмечают, что роботов с ИИ оказалось взломать так же легко, как и чат-ботов. 

продолжить чтение

Приглашаем на митап «Современный ИИ глазами новичков и профессионалов»

Искусственный интеллект – самая обсуждаемая технология 2024 года. На протяжении последних лет прикладным аспектам ИИ уделяется большое внимание: эффективность инструментов, применение на практике, возможности и опасности ИИ, безопасность. При этом тема управления ИИ остается в тени. Поговорим об ИИ с различных точек зрения.В митапе «Современный ИИ глазами новичков и профессионалов» примут участие специалисты по цифровой трансформации ЕДИНОГО ЦУПИС, а также приглашенный спикер – участник разработки национальной стратегии развития ИИ.

продолжить чтение

AI copilot программист приличного уровня теперь оффлайн — Qwen 2.5.1 Coder 7B

Хорошая новость для тех, кто любит кодить на вершине горы Эверест, в Марианской впадине или из пасти дикого льва в африканской саванне (там, где качество доступа в интернет оставляет желать лучшего).  Qwen 2.5.1 Coder 7B! На днях в сеть (похоже случайно) утекла новая версия модели для программирования от Alibaba, а сегодня ее уже выложили официально. Эта модель весом в 7 миллиардов параметров демонстрирует очень достойные результаты на бенчмарке редактирования кода Aider:  всего на несколько процентов отстает от  GPT-4-1106-preview (модель от 6 ноября 2023), но работает полностью оффлайн!

продолжить чтение

В Ollama добавлена поддержка мультимодальной модели Llama3.2-vision

В Ollama наконец то появилась долгожданная поддержка мультимодальной модели Llama3.2-vision. Эта модель оптимизирована для распознавания изображений, создания описаний к ним и ответов на общие вопросы об изображении.

продолжить чтение

Исследователи из России выяснили, что эмоции могут существенно повлиять на поведение больших языковых моделей

Исследователи из Института AIRI, ИСП РАН и Лаборатории искусственного интеллекта «Сбера» провели анализ влияния эмоциональных факторов на принятие решений большими языковыми моделями (LLM). Они изучили, как эмоции — гнев, печаль, радость, отвращение и страх — влияют на логику принятия решений в стратегических играх и этических дилеммах. Результаты исследования будут представлены на NeurIPS 2024 в Ванкувере, одном из ведущих мероприятий по искусственному интеллекту.

продолжить чтение

Tencent представила Hunyuan-Large — крупнейшую открытую модель с 389 миллиардами параметров

Недавно вышедшая Hunyuan-Large от Tencent, кажется, немного прошла мимо внимания широкой аудитории, а ведь это по-настоящему значимое событие в мире ИИ. На первый взгляд — очередная модель, но на деле — это крупнейшая открытая MoE (Mixture of Experts) модель на основе Transformer с впечатляющими 389 миллиардами параметров и 52 миллиардами активных параметров! Давайте разберёмся, почему это настолько важно и чем Hunyuan-Large может удивить даже искушённых специалистов.

продолжить чтение

Яндекс наградил 14 учёных за достижения в сфере машинного обучения

В этом году мы в шестой раз вручили научную премию в области машинного обучения Yandex ML Prize

продолжить чтение

OpenAI заявляет, что не будет выпускать модель под названием Orion в этом году

Компания OpenAI опровергла информацию о планах по выпуску новой модели под кодовым названием Orion в этом году, несмотря на недавние сообщения о её готовящемся запуске.

продолжить чтение

Выяснилось, что LLM могут считать, что 9.8 < 9.11, из-за Библии, физики или даже теракта 11 сентября

Исследователи из Transluce – только что анонсированной некоммерческой ИИ лаборатории – создали инструмент Monitor, который поможет людям наблюдать, понимать и управлять внутренними вычислениями языковых моделей. В ходе экспериментов ученые рассмотрели несколько известных задач, в которых LLM традиционно ошибаются, и выяснили, с чем могут быть связаны такие галлюцинации.

продолжить чтение

Rambler's Top100