Детальная информация
Название | Обеспечение целостности модели в системах федеративного обучения: выпускная квалификационная работа бакалавра: направление 10.03.01 «Информационная безопасность» ; образовательная программа 10.03.01_03 «Безопасность компьютерных систем» |
---|---|
Авторы | Шаврин Андрей Олегович |
Научный руководитель | Полтавцева Мария Анатольевна |
Организация | Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности |
Выходные сведения | Санкт-Петербург, 2025 |
Коллекция | Выпускные квалификационные работы ; Общая коллекция |
Тематика | федеративное обучение ; модели федеративного обучения ; архитектуры федеративного обучения ; атаки ; обновления ; агрегация ; способ защиты ; набор данных ; federated learning ; models of federated learning ; architectures of federated learning ; attacks ; updates ; aggregation ; method of protection ; dataset |
Тип документа | Выпускная квалификационная работа бакалавра |
Тип файла | |
Язык | Русский |
Уровень высшего образования | Бакалавриат |
Код специальности ФГОС | 10.03.01 |
Группа специальностей ФГОС | 100000 - Информационная безопасность |
DOI | 10.18720/SPBPU/3/2025/vr/vr25-844 |
Права доступа | Доступ по паролю из сети Интернет (чтение, печать, копирование) |
Дополнительно | Новинка |
Ключ записи | ru\spstu\vkr\35733 |
Дата создания записи | 30.07.2025 |
Разрешенные действия
–
Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети
Действие 'Загрузить' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети
Группа | Анонимные пользователи |
---|---|
Сеть | Интернет |
Тема выпускной квалификационной работы: «Обеспечение целостности модели в системах федеративного обучения». Целью работы является повышение устойчивости централизованной, децентрализованной и региональной модели федеративного обучения от комбинированной целевой атаки подмены меток с добавлением шума. Задачи, решаемые в ходе исследования: 1. Проанализировать атаки на различные архитектуры федеративного обучения. 2. Проанализировать методы защиты моделей федеративного обучения. 3. Разработать способ совместного использования алгоритмов защиты. 4. Реализовать и протестировать предложенный способ на различных архитектурах федеративного обучения. В ходе работы были исследованы архитектуры федеративного обучения, атаки на них и средства защиты. Были проанализированы современные исследования в области обеспечения безопасности моделей федеративного обучения. В результате работы был разработан способ защиты моделей федеративного обучения от целевой атаки подмены меток с добавлением шума, была продемонстрирована эффективность средства защиты. Полученные результаты могут быть использованы для настройки моделей федеративного обучения. Для достижения данных результатов была разработана программа, способная реализовать стенд для проведения атаки на централизованную, региональную и децентрализованную архитектуру федеративного обучения, а также их защиты от атаки с целевой подменой меток с добавлением шума.
The aim of the work is to increase the stability of a centralized, decentralized and regional model of federated learning from a combined targeted tag substitution attack with the addition of noise. Tasks to be solved during the research: 1. Analyze attacks on various architectures of federated learning. 2. Analyze the methods of protecting the models of federated learning. 3. Develop a way to share security algorithms. 4. Implement and test the proposed method on various architectures of federated learning. In the course of the work, the architectures of federated learning, attacks on them and means of protection were investigated. Modern research in the field of ensuring the security of federated learning models was analyzed. As a result of the work, a method was developed to protect federated learning models from a targeted tag substitution attack with the addition of noise, and the effectiveness of the protection was demonstrated. The results obtained can be used to set up models of federated learning. To achieve these results, a program has been developed that can implement a stand for attacking centralized, regional, and decentralized architectures of federated learning, as well as protecting them from attacks with targeted label substitution with added noise.
Место доступа | Группа пользователей | Действие |
---|---|---|
Локальная сеть ИБК СПбПУ | Все |
|
Интернет | Авторизованные пользователи СПбПУ |
|
Интернет | Анонимные пользователи |
|
Количество обращений: 1
За последние 30 дней: 1