- BrainTools - https://www.braintools.ru -
Тайваньская Foxconn сообщила о создании собственной большой языковой модели (БЯМ) с возможностями рассуждения под названием FoxBrain. Обучение [1] модели контрактного производителя Apple заняло [2] всего четыре недели.
БЯМ предназначена для анализа данных, математических вычислений, совместной работы с документами, рассуждений и генерации программного кода, отмечают в компании.
Nvidia поддержала проект FoxBrain при помощи своего суперкомпьютера Taipei-1 и услуг технического консалтинга. Для обучения модели Foxconn задействовала 120 ускорителей H100 от Nvidia.
Тайваньская компания пообещала открыть исходный код БЯМ для сотрудничества с отраслевыми партнёрами, хотя ранее FoxBrain планировали для внутреннего использования в Foxconn. В компании полагают, что ИИ-модель будет способствовать развитию производства и управления цепочек поставок.
Директор исследовательского центра ИИ Foxconn Юнг-Хуэй Ли заявил, что «модель отдаёт приоритет оптимизированным стратегиям обучения, а не простому применению вычислительной мощности» для решения проблем.
FoxBrain базируется на архитектуре Llama 3.1 от Meta*. Модель оптимизирована для используемого на Тайване традиционного китайского диалекта. Производительность БЯМ немного отстаёт от некоторых моделей китайской DeepSeek, но приближается к мировом стандартам, уверяет Foxconn.
Компания пообещала представить дополнительную информацию о FoxBrain на мероприятии Nvidia GTC 2025 [3] в середине марта.
Автор: Travis_Macrif
Источник [4]
Сайт-источник BrainTools: https://www.braintools.ru
Путь до страницы источника: https://www.braintools.ru/article/12986
URLs in this post:
[1] Обучение: http://www.braintools.ru/article/5125
[2] заняло: https://www.wsj.com/tech/ai/foxconn-builds-foxbrain-its-own-ai-model-ae079ebb
[3] GTC 2025: https://www.nvidia.com/gtc/
[4] Источник: https://habr.com/ru/news/889616/?utm_source=habrahabr&utm_medium=rss&utm_campaign=889616
Нажмите здесь для печати.