Детальная информация

Название Защита моделей искусственного интеллекта от бэкдор-атак: выпускная квалификационная работа специалиста: направление 10.05.01 «Компьютерная безопасность» ; образовательная программа 10.05.01_02 «Математические методы защиты информации» = Protection of artificial intelligence models from backdoor attacks
Авторы Москалев Никита Олегович
Научный руководитель Лаврова Дарья Сергеевна
Организация Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Выходные сведения Санкт-Петербург, 2026
Коллекция Выпускные квалификационные работы ; Общая коллекция
Тематика искусственный интеллект ; нейронные сети ; классификация ; отравление моделей ии ; бэкдор-атака ; artificial intelligence ; neural networks ; classification ; poisoning if ai models ; backdoor attack
Тип документа Выпускная квалификационная работа специалиста
Язык Русский
Уровень высшего образования Специалитет
Код специальности ФГОС 10.05.01
Группа специальностей ФГОС 100000 - Информационная безопасность
DOI 10.18720/SPBPU/3/2026/vr/vr26-406
Права доступа Доступ по паролю из сети Интернет (чтение, печать)
Дополнительно Новинка
Ключ записи ru\spstu\vkr\40249
Дата создания записи 20.04.2026

Разрешенные действия

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа Анонимные пользователи
Сеть Интернет

Целью настоящей дипломной работы является защита моделей искусственного интеллекта от бэкдор атак. Объектом исследования являются модели искусственного интеллекта, потенциально подверженные бэкдор-атакам. Задачи, решаемые в ходе исследования: 1. Провести анализ методов проведения бэкдор-атак на модели искусственного интеллекта. 2. Провести анализ методов защиты от бэкдор-атак. 3. Разработать метрику, позволяющую оценить эффективность внедренного бэкдора. 4. Разработать подход к защите моделей искусственного интеллекта от бэкдор-атак. 5. Выполнить оценку эффективности предложенного подхода. В результате был разработан подход, позволяющий защищать модели искусственного интеллекта от бэкдор-атак, эффективность которого была обоснована теоретически и подтверждена эмпирическим путем. Также была разработана метрика, позволяющая оценивать эффективность внедренного нарушителем бэкдора. Полученные результаты могут быть использованы для проведения дальнейших исследований, а также для создания на их основе новых защитных решений.

The purpose of the study is to protect artificial intelligence models from backdoor attacks. The object of the work is artificial intelligence models potentially susceptible to backdoor attacks. The tasks solved during the study: 1. Conduct an analysis of methods for conducting backdoor attacks on artificial intelligence models. 2. Conduct an analysis of defense methods against backdoor attacks. 3. Develop a metric to evaluate the effectiveness of the implemented backdoor. 4. Develop an approach to protecting artificial intelligence models from backdoor attacks. 5. Conduct an assessment of the effectiveness of the proposed approach. As a result of the work, an approach was developed to protect artificial intelligence models from backdoors, the effectiveness of which was theoretically justified and empirically confirmed. A metric was also developed to evaluate the effectiveness of an attackers backdoor implementation. The obtained results can be used for further research and for the development of new security solutions.

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все
Прочитать Печать
Интернет Авторизованные пользователи СПбПУ
Прочитать Печать
Интернет Анонимные пользователи

Количество обращений: 0 
За последние 30 дней: 0

Подробная статистика