ИИ открыл двери для массовой прослушки населения
Шпионаж (прослушка) и наблюдение (слежка) — это разные, но связанные вещи. Если нанять частного детектива для прослушки, то он может спрятать несколько жучков в доме, машине — и в итоге получит отчёт с записями разговоров объекта. Если же ему поручили работу по наблюдению, то содержание отчёта будет другим: куда ходил человек, с кем разговаривал, что покупал, что делал. До появления интернета установить за кем-то наблюдение было дорого и долго. Нужно было вручную следить за человеком, отмечая, куда он ходит, с кем разговаривает, что покупает, что делает и что читает. Но этот старый мир навсегда ушёл в прошлое. Теперь наши телефоны отслеживают местоположение, банковские карты регистрируют покупки, приложения отслеживают, с кем мы разговариваем и что читаем. Компьютеры собирают данные обо всех наших действиях, и по мере удешевления хранения и обработки эти данные всё чаще сохраняются и используются. То, что было индивидуальной работой, сейчас стало массовым. Слежка за людьми стала бизнес-моделью для интернет-компаний, и у нас нет разумного способа отказаться от неё.
Кастомные loss-функции в TensorFlow-Keras и PyTorch
Привет, Хабр!Стандартные loss‑функции, такие как MSE или CrossEntropy, хороши, но часто им не хватает гибкости для сложных задач. Допустим, есть тот же проект с огромным дисбалансом классов, или хочется внедрить специфическую регуляризацию прямо в функцию потерь. Стандартный функционал тут бессилен — тут на помощь приходят кастомные loss'ы.Custom Loss Functions в TensorFlow/KerasTensorFlow/Keras радуют удобным API, но за простоту приходится платить вниманием к деталям. Focal LossFocal Loss помогает сместить фокус обучения на сложные примеры, снижая влияние легко классифицируемых данных: