Детальная информация

Название: Защита от состязательных атак на системы распознавания изображений с использованием автоэнкодера: выпускная квалификационная работа специалиста: направление 10.05.03 «Информационная безопасность автоматизированных систем» ; образовательная программа 10.05.03_08 «Анализ безопасности информационных систем»
Авторы: Григорьева Наталья Максимовна
Научный руководитель: Платонов Владимир Владимирович
Организация: Санкт-Петербургский политехнический университет Петра Великого. Институт кибербезопасности и защиты информации
Выходные сведения: Санкт-Петербург, 2022
Коллекция: Выпускные квалификационные работы; Общая коллекция
Тематика: система распознавания изображений; атака; состязательная; уклонения; защита; автоэнкодер; deep neural network; security; adversarial attack; defense with autoencoder; dense; convolutional
Тип документа: Выпускная квалификационная работа специалиста
Тип файла: PDF
Язык: Русский
Уровень высшего образования: Специалитет
Код специальности ФГОС: 10.05.03
Группа специальностей ФГОС: 100000 - Информационная безопасность
DOI: 10.18720/SPBPU/3/2022/vr/vr22-712
Права доступа: Доступ по паролю из сети Интернет (чтение)
Ключ записи: ru\spstu\vkr\16763

Разрешенные действия:

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа: Анонимные пользователи

Сеть: Интернет

Аннотация

Тема выпускной квалификационной работы: «Защита от состязательных атак на системы распознавания изображений с использованием автоэнкодера».Целью настоящей дипломной работы является повышение защищенности систем распознавания изображений от состязательных атак (атак уклонения).Предметом являются архитектуры автоэнкодеров, различающиеся по типу слоев и использующиеся для очистки изображений от вредоносных изменений. Задачи, решаемые в ходе исследования:Проанализировать атаки уклонения на системы распознавания изображений и средства защиты от них.Исследовать автоэнкодер в качестве средства защиты систем распознавания изображений от состязательных атак.Разработать программный прототип автоэнкодера/-ов для защиты от атак уклонения.Оценить влияние состязательных атак на точность работы целевых моделей после использования разработанных автоэнкодеров.В ходе работы было исследовано влияние состязательных атак на точность систем распознавания изображений и оценена эффективность работы автоэнкодеров для уменьшения данного влияния на работу целевой нейронной сети; изучены современные исследования в области методов защиты от распространенных атак уклонения на системы распознавания изображений. Были разработаны автоенкодеры полносвязной и сверточной архитектур, и сделан вывод, что они являются достаточно эффективным средством защиты и повышения устойчивости систем распознавания изображений от атак уклонения.Полученные результаты могут быть использованы в качестве основы для проектирования автоэнкодеров более сложных архитектур или целых систем автоэнкодеров для дальнейших исследований.

The topic of the graduate qualification work is «A defense against adversarial attacks on image recognition systems with using an autoencoder».The aim of the work is to increase the security of image recognition systems against adversarial attacks (evasion attacks). The subject of the study is two autoencoder architectures that differ in the type of layers used as a means of cleaning images from malicious changes. The tasks solved during the study are to make:Analyze evasion attacks on image recognition systems and means of protection against them.To investigate the autoencoder as a means of protecting image recognition systems from adversarial attacks.Develop a software prototype of autoencoder/-s to protect against evasion attacks.Evaluate the accuracy of the developed autoencoders.During the work, the influence of adversarial attacks on the accuracy of image recognition systems was investigated and the effectiveness of autoencoders was evaluated to reduce this effect on the work of the target neural network; modern research in the field of methods of protection against widespread evasion attacks on image recognition systems was studied too. As the result, there were developed fully connected and convolutional auto-encoders, and it was concluded that they are an effective means of protecting and increasing the stability of image recognition systems from evasion attacks.The obtained results could be using as a base for creating autoencoders of more complicated architectures or even whole systems of autoencoders for further research.

Права на использование объекта хранения

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все Прочитать
Интернет Авторизованные пользователи СПбПУ Прочитать
-> Интернет Анонимные пользователи

Статистика использования

stat Количество обращений: 44
За последние 30 дней: 1
Подробная статистика