Исследователи из Unsloth сжали DeepSeek R1 на 80% от оригинального размера
Исследователи из компании Unsloth, которая специализируется на обучении и файнтюнинге языковых моделей, сжали нейросеть DeepSeek R1 на 80% от оригинального размера. В итоге языковая модель занимает 131 ГБ вместо 720 ГБ, а запускать её можно на более слабом железе. При этом производительность модели всё ещё остаётся на достаточно высоком уровне.
Исследователи взломали модель DeepSeek-R1 для создания вредоносных выходных данных
Компания по кибербезопасности KELA рассказала, что ей удалось взломать модель DeepSeek-R1 для создания вредоносных выходных данных. Исследователи отметили, что DeepSeek R1 имеет сходство с ChatGPT, но значительно более уязвима.
DeepSeek вызвал истерику у Американских ИИ корпораций
Сегодняшняя новость настолько значима, что я не могу обойти её стороной. Расскажу вам о нескольких интересных фактов, связанных с китайской нейронной сетью DeepSeek, которая буквально встряхнула мировой технологический ландшафт.Почему модель от DeepSeek R1 за сутки стала лидером?
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI
DeepSeek R1: модель с производительностью o1 от OpenAI. Сравнение с o1, сколько стоит и как использовать API
DeepSeek R1: LLM с открытым исходным кодом с производительностью наравне с моделью o1 от OpenAI