Учёные из СПб ФИЦ РАН научили нейросеть находить кейлоггеры. ИИ.. ИИ. Информационная безопасность.. ИИ. Информационная безопасность. искусственный интеллект.. ИИ. Информационная безопасность. искусственный интеллект. кейлоггеры.. ИИ. Информационная безопасность. искусственный интеллект. кейлоггеры. кибербезопасность.. ИИ. Информационная безопасность. искусственный интеллект. кейлоггеры. кибербезопасность. Машинное обучение.. ИИ. Информационная безопасность. искусственный интеллект. кейлоггеры. кибербезопасность. Машинное обучение. нейросеть.. ИИ. Информационная безопасность. искусственный интеллект. кейлоггеры. кибербезопасность. Машинное обучение. нейросеть. спб фиц ран.

Специалисты Санкт‑Петербургского федерального исследовательского центра (СПб ФИЦ) РАН создали нейросеть для поиска кейлоггеров. Разработка выявляет следы работы кейлоггеров в сетевом трафике.

Система мониторинга на базе методов машинного обучения в реальном времени отслеживает сетевой трафик и сообщает о подозрительных действиях, которые могут указывать на активность вредоносного ПО.

Учёные из СПб ФИЦ РАН научили нейросеть находить кейлоггеры - 1

Нейросеть ищет аномальную активность, например передачу данных с устройства на подозрительный внешний сервер. По словам авторов, алгоритмы можно встроить в системы сетевой безопасности, чтобы автоматически определять кейлоггеры и предотвращать утечку паролей.

По оценке экспертов, ИИ уже активно применяется в кибербезопасности — от анализа исполняемых файлов до отслеживания подозрительной активности процессов и распознавания фишинга. В этом участвуют как локальные решения, так и облачные песочницы, где модели проверяют файлы в изолированной среде.

Как отметили ИБ‑эксперты, преимущество ИИ в том, что он способен обнаружить вредоносные паттерны там, где классические подходы не работают. Однако у нейросетей есть и минусы: высокая нагрузка на оборудование, сложность настройки и возможность ошибок — как ложных срабатываний, так и пропуска угроз.

Кроме того, отдельным риском выступает отравление данных: если злоумышленник изменит обучающие выборки, нейросеть может начать выдавать неверные результаты. Поэтому нейросетевые модули часто используют не отдельно, а в связке с классическими системами защиты.

Автор: Lexx_Nimofff

Источник

Рейтинг@Mail.ru
Rambler's Top100