Details

Title Защита моделей искусственного интеллекта от бэкдор-атак: выпускная квалификационная работа специалиста: направление 10.05.01 «Компьютерная безопасность» ; образовательная программа 10.05.01_02 «Математические методы защиты информации» = Protection of artificial intelligence models from backdoor attacks
Creators Москалев Никита Олегович
Scientific adviser Лаврова Дарья Сергеевна
Organization Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Imprint Санкт-Петербург, 2026
Collection Выпускные квалификационные работы ; Общая коллекция
Subjects искусственный интеллект ; нейронные сети ; классификация ; отравление моделей ии ; бэкдор-атака ; artificial intelligence ; neural networks ; classification ; poisoning if ai models ; backdoor attack
Document type Specialist graduation qualification work
Language Russian
Level of education Specialist
Speciality code (FGOS) 10.05.01
Speciality group (FGOS) 100000 - Информационная безопасность
DOI 10.18720/SPBPU/3/2026/vr/vr26-406
Rights Доступ по паролю из сети Интернет (чтение, печать)
Additionally New arrival
Record key ru\spstu\vkr\40249
Record create date 4/20/2026

Allowed Actions

Action 'Read' will be available if you login or access site from another network

Group Anonymous
Network Internet

Целью настоящей дипломной работы является защита моделей искусственного интеллекта от бэкдор атак. Объектом исследования являются модели искусственного интеллекта, потенциально подверженные бэкдор-атакам. Задачи, решаемые в ходе исследования: 1. Провести анализ методов проведения бэкдор-атак на модели искусственного интеллекта. 2. Провести анализ методов защиты от бэкдор-атак. 3. Разработать метрику, позволяющую оценить эффективность внедренного бэкдора. 4. Разработать подход к защите моделей искусственного интеллекта от бэкдор-атак. 5. Выполнить оценку эффективности предложенного подхода. В результате был разработан подход, позволяющий защищать модели искусственного интеллекта от бэкдор-атак, эффективность которого была обоснована теоретически и подтверждена эмпирическим путем. Также была разработана метрика, позволяющая оценивать эффективность внедренного нарушителем бэкдора. Полученные результаты могут быть использованы для проведения дальнейших исследований, а также для создания на их основе новых защитных решений.

The purpose of the study is to protect artificial intelligence models from backdoor attacks. The object of the work is artificial intelligence models potentially susceptible to backdoor attacks. The tasks solved during the study: 1. Conduct an analysis of methods for conducting backdoor attacks on artificial intelligence models. 2. Conduct an analysis of defense methods against backdoor attacks. 3. Develop a metric to evaluate the effectiveness of the implemented backdoor. 4. Develop an approach to protecting artificial intelligence models from backdoor attacks. 5. Conduct an assessment of the effectiveness of the proposed approach. As a result of the work, an approach was developed to protect artificial intelligence models from backdoors, the effectiveness of which was theoretically justified and empirically confirmed. A metric was also developed to evaluate the effectiveness of an attackers backdoor implementation. The obtained results can be used for further research and for the development of new security solutions.

Network User group Action
ILC SPbPU Local Network All
Read Print
Internet Authorized users SPbPU
Read Print
Internet Anonymous

Access count: 0 
Last 30 days: 0

Detailed usage statistics