нейросети.

Apple представила Matrix3D — нейросеть для фотограмметрии

Исследователи Apple выпустили Matrix3D — универсальную нейросеть для фотограмметрии. С её помощью пользователи могут преобразовывать группы снимков предметов в детализированные 3D-модели. Компания опубликовала веса и подробно рассказала о реализации метода.

Нейро-дайджест: ключевые события мира AI за 28 апреля – 4 мая 2025

Привет! 👋Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта.Меня зовут Вандер

ML-обработка видео в web-браузере для видеоконференций SaluteJazz

Нейросеть, сегментирующая изображение человека в кадре: как ускорить её в четыре раза? Привет, Хабр! Это Дмитрий Балиев из SberDevices. В этой статье, написанной по докладу с речь пойдёт о том, как мы обрабатываем алгоритмами видео в Web-браузерах для сервиса конференции SaluteJazz.Расскажу про контекст и ограничения, сам движок и особенности его реализации. Раскрою тайну, как мы работаем с графами вычислений, как инферим нейросети, и как затем всё это собираем, оптимизируем и тестируем. В конце — несколько полезных советов, как делать нейросети удобнее для встраивания.

Ян Лекун, создатель LeNet, формата DjVu и адвокат опенсорса

Ян Лекун, один из крёстных отцов современного ИИ, в своём твиттере резко критикует корпоративных исследователей ИИ, которые ведут проприетарные разработки и занимаются «нагнетанием страха». Среди этих людей называются Сэм Альтман (OpenAI), Демис Хассабис (Google DeepMind) и Дарио Амодеи (Anthropic) Ян Лекун (Yann LeCun) — французский и американский учёный в области машинного обучения и компьютерного зрения. Известен как автор легендарной системы LeNet (1989 г.), где одним из первых начал применять методы биологических нейронных сетей для оптического распознавания символов (OCR). Сейчас занимает должность вице-президента и ведущего исследователя ИИ в корпорации Meta (руководит разработкой опенсорсной языковой модели LLaMA, в том числе). При этом остаётся ярым приверженцем опенсорса, свободной науки и научно-технического прогресса человечества.

Как ИИ-контент проклял интернет и почему это закономерно

Сколько сгенерированного ИИ контента вы видите каждый день? Вопрос риторический. Весело создавать изображения или получать быстрый ответ от нейросети на заковыристый вопрос. ИИ будет выдавать все, что кто-то попросит, пусть ответ будет и не очень хорошего качества в большинстве случаев. Зато быстро и иногда бесплатно. Но есть и обратная сторона: низкое качество, недостоверность, дипфейки. Конечно, ИИ лишь выполняет команды людей, но многие уже бьют тревогу о мертвом Хабре интернете, ведь объем нейросетевого контента скоро превысит объем контента от живых людей. В этой статье хотелось бы развить мысль о том, что это закономерно. Несомненно, подавляющее большинство контента, создаваемого ИИ, — просто ужасно. Это ленивый, неинтересный, минимально жизнеспособный мусор, который публикуют контент-фермеры, боты или люди, которым просто нет дела до качества. Но это эволюционный этап детства ИИ и проба использования новых доступных инструментов. Такой сценарий был неизбежен.

Ложь искусственного интеллекта

"Everybody lies"— доктор Грегори Хаус, "Доктор Хаус".Реакция Grok, когда все же доказали, что он лжет.Введение

Как обогнать 99% Python-разработчиков, с фокусом на эру ИИ — по версии ИИ ((гайд) но это не точно)

🔰 ЦЕЛЬ: Создать разработчика, который является архитектором и оптимизатором сложных систем, способным эффективно использовать ИИ как мощный инструмент, но не зависящим от него для критических инженерных решений. НачалоАнтихейт от гиков по версии ИИЭТАП 1: Мастерский Фундамент Core Python и Чистого КодаЭТАП 2: Глубокая Инженерная Оптимизация и Производительность ЭТАП 3:

Геометрия ландшафта потерь и «понимание» нейросети

ВведениеКогда нейросеть обучается, ее функция потерь образует сложный ландшафт в пространстве параметров – с вершинами (области высокой ошибки) и долинами (области низкой ошибки). Свойства этого ландшафта – его кривизна, форма минимальных долин, спектр матрицы Гессе и пр. – могут многое рассказать о том, насколько модель усвоила закономерности данных. Идея состоит в том, что не все минимумы одинаковы: одни могут быть «плоскими» (широкими и неглубокими), другие «острыми»

Больше данных — ровнее ландшафт нейросетей

Представьте себе, что обучение нейросети – это путешествие по пересечённой местности, где высота рельефа соответствует величине функции потерь

Microsoft выпустила Phi-4 — семейство компактных рассуждающих языковых моделей с открытым исходным кодом

Microsoft представила семейство компактных рассуждающих языковых моделей Phi-4.  Продвинутая версия в некоторых бенчмарках превосходит DeepSeek-R1, GPT o1 и Claude-3.7-Sonnet. Код моделей и веса доступны на Hugging Face.

123456...1020...30
Рейтинг@Mail.ru
Rambler's Top100