Details

Title: Защита LSTM-классификатора сетевого трафика от состязательных атак: выпускная квалификационная работа специалиста: направление 10.05.01 «Компьютерная безопасность» ; образовательная программа 10.05.01_02 «Математические методы защиты информации»
Creators: Куликов Дмитрий Аркадьевич
Scientific adviser: Платонов Владимир Владимирович
Other creators: Попова Елена Александровна; Лаврова Дарья Сергеевна
Organization: Санкт-Петербургский политехнический университет Петра Великого. Институт кибербезопасности и защиты информации
Imprint: Санкт-Петербург, 2021
Collection: Выпускные квалификационные работы; Общая коллекция
Subjects: Искусственный интеллект; Информация — Защита; обнаружение сетевых атак; состязательные атаки; отравление классификатора; обучение на состязательных примерах; network attack detection; adversarial attacks; poisoning attacks on classifier; adversarial training
UDC: 004.8; 004.056
Document type: Specialist graduation qualification work
File type: PDF
Language: Russian
Level of education: Specialist
Speciality code (FGOS): 10.05.01
Speciality group (FGOS): 100000 - Информационная безопасность
Links: Отзыв руководителя; Рецензия; Отчет о проверке на объем и корректность внешних заимствований
DOI: 10.18720/SPBPU/3/2021/vr/vr21-142
Rights: Доступ по паролю из сети Интернет (чтение)
Record key: ru\spstu\vkr\15380

Allowed Actions:

Action 'Read' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

Данная работа посвящена исследованию стойкости LSTM-классификатора сетевого трафика к состязательным атакам. Цель работы – обеспечение безопасности сети путем повышения устойчивости LSTM-классификатора к состязательным атакам. В дипломной работе исследованы состязательные атаки на модели машинного обучения и их классификация, описана рассматриваемая модель угроз, а также выбраны и обусловлены рассматриваемые модели нарушителя. Предложена атака «отравления» классификатора. Были исследованы и выбраны методы защиты от состязательных атак. Экспериментальные исследования содержат оценку эффективности выбранных состязательных атак и методов защиты, по отношению к построенному прототипу LSTM-классификатора сетевого трафика. Исследования проводились в рамках выбранных моделей нарушителей. Была предложена и реализована атака «отравления» классификатора и опробован метод защиты от данного рода атак путем обучения на состязательных примерах. LSTM-классификатор сетевого трафика, при отсутствии защиты, оказался уязвимым перед состязательными атаками. В результате работы был разработан прототип, с повышенной устойчивостью к таким атакам, который может быть использован для выявления атак в современной сети.

The given work is devoted to investigation of LSTM classifier’s robustness to adversarial attacks. The goal of the work is ensuring network security through enhancement of LSTM classifier’s robustness to adversarial attacks. In this diploma, adversarial attacks on machine learning models with their classification were studied. Threat model was determined and described, attacker models were selected and defined. Poisoning attack on classifier was proposed. Investigation and selection of defence methods against adversarial attacks were done. Experimental research includes analysis of effectiveness of selected adversarial attacks and defence methods towards implemented LSTM prototype and with respect to attacker models. Also poisoning attack method was implemented along with proposed defence method which is based on training with adversarial samples. LSTM classifier of network traffic without defence appeared to be vulnerable to adversarial attacks. As a result of the work, a prototype with improved robustness to adversarial attacks was developed which can be used for detection of attacks in modern networks.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read
Internet Authorized users SPbPU Read
-> Internet Anonymous

Usage statistics

stat Access count: 67
Last 30 days: 0
Detailed usage statistics