Детальная информация

Название: Защита искусственной нейронной сети, выполняющей классификацию вредоносного программного обеспечения, от состязательных атак: выпускная квалификационная работа специалиста: направление 10.05.01 «Компьютерная безопасность» ; образовательная программа 10.05.01_02 «Математические методы защиты информации»
Авторы: Саломатин Максим Владиславович
Научный руководитель: Платонов Владимир Владимирович
Организация: Санкт-Петербургский политехнический университет Петра Великого. Институт кибербезопасности и защиты информации
Выходные сведения: Санкт-Петербург, 2023
Коллекция: Выпускные квалификационные работы; Общая коллекция
Тематика: Машинное обучение; Нейронные сети; сверточные нейронные сети; состязательные примеры; защита с использованием движущихся целей; convolutional neural networks; adversarial examples; moving target defense
УДК: 004.85; 004.032.26
Тип документа: Выпускная квалификационная работа специалиста
Тип файла: PDF
Язык: Русский
Уровень высшего образования: Специалитет
Код специальности ФГОС: 10.05.01
Группа специальностей ФГОС: 100000 - Информационная безопасность
DOI: 10.18720/SPBPU/3/2023/vr/vr23-830
Права доступа: Доступ по паролю из сети Интернет (чтение)
Ключ записи: ru\spstu\vkr\20507

Разрешенные действия:

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа: Анонимные пользователи

Сеть: Интернет

Аннотация

Тема выпускной квалификационной работы: «Защита искусственной нейронной сети, выполняющей классификацию вредоносного программного обеспечения, от состязательных атак». Цель дипломной работы – повышение устойчивости к состязательным атакам системы обнаружения вредоносного программного обеспечения, выполняющей классификацию байтового представления исполняемых файлов. Предметом исследования является защита сверточных нейронных сетей от состязательных атак. Задачи, решаемые в ходе исследования: Исследование существующих методов обнаружения вредоносного программного обеспечения на основе искусственных нейронных сетей. Исследование существующих методов проведения состязательных атак. Исследование существующих методов защиты от состязательных атак. Разработка подхода к защите системы, выполняющей классификацию вредоносного программного обеспечения. Анализ полученных результатов. В результате работы был предложен подход к защите системы обнаружения вредоносного программного обеспечения, использующей сверточные нейронные сети для классификации программ, от состязательных примеров. Разработанное решение основано на следующих методах: метод защиты с использованием, движущихся целей, состязательного обучения и борьбой с состязательным обучением на уровне архитектуры модели. Полученный метод позволяет значительно повысить устойчивость систем к атакам с использованием состязательных примеров. Была продемонстрирована работа предложенного подхода. Полученные результаты могут быть использованы в качестве основы для использования подхода в системах классификации вредоносного программного обеспечения без этапа извлечения признаков, требующего знания предметной области.

The theme of the graduate qualification work: «Method of malware classification system protection against adversarial attacks». The purpose of the study is to increase the resistance to adversarial attacks of a malicious software detection system that classifies the byte representation of executable files. Tasks to be solved in the course of the study: Analysis of existing methods for detecting malicious software based on artificial neural networks. Analysis of existing methods of conducting adversarial attacks. Analysis of existing defensive methods against adversarial attacks. Implementation of the protection approach of the system performing the HPE classification. Analysis of the results obtained. As a result of the work, an approach was proposed to protect the malware detection system using convolutional neural networks to classify programs from adversarial examples. The developed solution is based on the following methods: the method of protection using moving targets, competitive learning and the fight against competitive learning at the level of the model architecture. The resulting method makes it possible to significantly increase the resistance of systems to attacks using adversarial examples. The work of the proposed approach was demonstrated. The results obtained can be used as a basis for using an approach in malware classification systems without a feature extraction stage requiring domain knowledge.

Права на использование объекта хранения

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все Прочитать
Интернет Авторизованные пользователи СПбПУ Прочитать
-> Интернет Анонимные пользователи

Статистика использования

stat Количество обращений: 7
За последние 30 дней: 0
Подробная статистика