ИИ агенты способны к саморепликации
Что??? Уже? Вот черт. Коротко Группа ученых из Шанхая показала , что ИИ агенты на базе большинства современных открытых LLM моделей способны самостоятельно реплицировать и запустить полную копию себя на другом девайсе. Это супер важно и беспокоящее, такая способность являлась одной из “красных” линий ведущих к серьезным рискам ИИ. Cаморепликация колоссально усложняет возможности удерживания мисалаймент ИИ (действующие не согласно замыслу запустившего) или ИИ запущенных злоумышленниками.
Исследование: LLM можно использовать для генерации вредоносного JavaScript-кода и сокрытия малвари
Исследование Palo Alto Networks показало, что большие языковые модели (LLM) можно использовать для массовой генерации новых вариантов вредоносного JavaScript-кода, и это позволяет малвари лучше избегать обнаружения.