Native Sparse Attention: новый вид разреженного внимания от DeepSeek
Когда Маск выпустил Grok 3, а Сэм Альтман все еще колебался, стоит ли открывать исходный код, Лян Вэньфэн, как соавтор, работал с исследовательской группой DeepSeek над созданием шокирующей и сенсационной исследовательской статьи. DeepSeek официально представила свой последний научный прорыв — Native Sparse Attention (NSA)! Эта технология имеет большое значение. Она, скорее всего, значительно повысит способность следующего поколения больших языковых моделей обрабатывать длинные тексты, полностью учитывая при этом операционную эффективность. Нет сомнений, что это еще одна веха в области больших языковых моделей (LLM)!
3 советские задачки на сообразительность, которые заставят ваш мозг скрипеть
Люблю задачки на логику, сообразительность. И, как мне кажется, старые советские журналы типа Мурзилки - это кладезь таких задач. Большинство современных подростков и даже взрослых с трудом с ними справляются. Публикую 3 задачи, которые не смог решить ни один взрослый тридцатилетний человек, кому я их показывал. Хотя я уверен, что у вас все получится. Люди с Хабра - это мозг рунета. Поехали.
Волевые качества. Почему одни люди более волевые, чем другие?
Почему один человек способен довести дело до конца, а другой бросает дело на полпути? При том, что у другого человека могут быть куда более благоприятные стартовые условия. Почему кто-то может ежедневно отдаваться рутине час за часом, а кто-то не высидит и трех минут? Все упирается в волевые качества и способность их развивать. О чем и пойдет речь в статье.