Details
| Title | Защита моделей искусственного интеллекта от бэкдор-атак: выпускная квалификационная работа специалиста: направление 10.05.01 «Компьютерная безопасность» ; образовательная программа 10.05.01_02 «Математические методы защиты информации» = Protection of artificial intelligence models from backdoor attacks |
|---|---|
| Creators | Москалев Никита Олегович |
| Scientific adviser | Лаврова Дарья Сергеевна |
| Organization | Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности |
| Imprint | Санкт-Петербург, 2026 |
| Collection | Выпускные квалификационные работы ; Общая коллекция |
| Subjects | искусственный интеллект ; нейронные сети ; классификация ; отравление моделей ии ; бэкдор-атака ; artificial intelligence ; neural networks ; classification ; poisoning if ai models ; backdoor attack |
| Document type | Specialist graduation qualification work |
| Language | Russian |
| Level of education | Specialist |
| Speciality code (FGOS) | 10.05.01 |
| Speciality group (FGOS) | 100000 - Информационная безопасность |
| DOI | 10.18720/SPBPU/3/2026/vr/vr26-406 |
| Rights | Доступ по паролю из сети Интернет (чтение, печать) |
| Additionally | New arrival |
| Record key | ru\spstu\vkr\40249 |
| Record create date | 4/20/2026 |
Allowed Actions
–
Action 'Read' will be available if you login or access site from another network
| Group | Anonymous |
|---|---|
| Network | Internet |
Целью настоящей дипломной работы является защита моделей искусственного интеллекта от бэкдор атак. Объектом исследования являются модели искусственного интеллекта, потенциально подверженные бэкдор-атакам. Задачи, решаемые в ходе исследования: 1. Провести анализ методов проведения бэкдор-атак на модели искусственного интеллекта. 2. Провести анализ методов защиты от бэкдор-атак. 3. Разработать метрику, позволяющую оценить эффективность внедренного бэкдора. 4. Разработать подход к защите моделей искусственного интеллекта от бэкдор-атак. 5. Выполнить оценку эффективности предложенного подхода. В результате был разработан подход, позволяющий защищать модели искусственного интеллекта от бэкдор-атак, эффективность которого была обоснована теоретически и подтверждена эмпирическим путем. Также была разработана метрика, позволяющая оценивать эффективность внедренного нарушителем бэкдора. Полученные результаты могут быть использованы для проведения дальнейших исследований, а также для создания на их основе новых защитных решений.
The purpose of the study is to protect artificial intelligence models from backdoor attacks. The object of the work is artificial intelligence models potentially susceptible to backdoor attacks. The tasks solved during the study: 1. Conduct an analysis of methods for conducting backdoor attacks on artificial intelligence models. 2. Conduct an analysis of defense methods against backdoor attacks. 3. Develop a metric to evaluate the effectiveness of the implemented backdoor. 4. Develop an approach to protecting artificial intelligence models from backdoor attacks. 5. Conduct an assessment of the effectiveness of the proposed approach. As a result of the work, an approach was developed to protect artificial intelligence models from backdoors, the effectiveness of which was theoretically justified and empirically confirmed. A metric was also developed to evaluate the effectiveness of an attackers backdoor implementation. The obtained results can be used for further research and for the development of new security solutions.
| Network | User group | Action |
|---|---|---|
| ILC SPbPU Local Network | All |
|
| Internet | Authorized users SPbPU |
|
| Internet | Anonymous |
|
Access count: 0
Last 30 days: 0