Детальная информация
| Название | Защита моделей искусственного интеллекта от бэкдор-атак: выпускная квалификационная работа специалиста: направление 10.05.01 «Компьютерная безопасность» ; образовательная программа 10.05.01_02 «Математические методы защиты информации» = Protection of artificial intelligence models from backdoor attacks |
|---|---|
| Авторы | Москалев Никита Олегович |
| Научный руководитель | Лаврова Дарья Сергеевна |
| Организация | Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности |
| Выходные сведения | Санкт-Петербург, 2026 |
| Коллекция | Выпускные квалификационные работы ; Общая коллекция |
| Тематика | искусственный интеллект ; нейронные сети ; классификация ; отравление моделей ии ; бэкдор-атака ; artificial intelligence ; neural networks ; classification ; poisoning if ai models ; backdoor attack |
| Тип документа | Выпускная квалификационная работа специалиста |
| Язык | Русский |
| Уровень высшего образования | Специалитет |
| Код специальности ФГОС | 10.05.01 |
| Группа специальностей ФГОС | 100000 - Информационная безопасность |
| DOI | 10.18720/SPBPU/3/2026/vr/vr26-406 |
| Права доступа | Доступ по паролю из сети Интернет (чтение, печать) |
| Дополнительно | Новинка |
| Ключ записи | ru\spstu\vkr\40249 |
| Дата создания записи | 20.04.2026 |
Разрешенные действия
–
Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети
| Группа | Анонимные пользователи |
|---|---|
| Сеть | Интернет |
Целью настоящей дипломной работы является защита моделей искусственного интеллекта от бэкдор атак. Объектом исследования являются модели искусственного интеллекта, потенциально подверженные бэкдор-атакам. Задачи, решаемые в ходе исследования: 1. Провести анализ методов проведения бэкдор-атак на модели искусственного интеллекта. 2. Провести анализ методов защиты от бэкдор-атак. 3. Разработать метрику, позволяющую оценить эффективность внедренного бэкдора. 4. Разработать подход к защите моделей искусственного интеллекта от бэкдор-атак. 5. Выполнить оценку эффективности предложенного подхода. В результате был разработан подход, позволяющий защищать модели искусственного интеллекта от бэкдор-атак, эффективность которого была обоснована теоретически и подтверждена эмпирическим путем. Также была разработана метрика, позволяющая оценивать эффективность внедренного нарушителем бэкдора. Полученные результаты могут быть использованы для проведения дальнейших исследований, а также для создания на их основе новых защитных решений.
The purpose of the study is to protect artificial intelligence models from backdoor attacks. The object of the work is artificial intelligence models potentially susceptible to backdoor attacks. The tasks solved during the study: 1. Conduct an analysis of methods for conducting backdoor attacks on artificial intelligence models. 2. Conduct an analysis of defense methods against backdoor attacks. 3. Develop a metric to evaluate the effectiveness of the implemented backdoor. 4. Develop an approach to protecting artificial intelligence models from backdoor attacks. 5. Conduct an assessment of the effectiveness of the proposed approach. As a result of the work, an approach was developed to protect artificial intelligence models from backdoors, the effectiveness of which was theoretically justified and empirically confirmed. A metric was also developed to evaluate the effectiveness of an attackers backdoor implementation. The obtained results can be used for further research and for the development of new security solutions.
| Место доступа | Группа пользователей | Действие |
|---|---|---|
| Локальная сеть ИБК СПбПУ | Все |
|
| Интернет | Авторизованные пользователи СПбПУ |
|
| Интернет | Анонимные пользователи |
|
Количество обращений: 0
За последние 30 дней: 0