Details
Title | Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения: выпускная квалификационная работа специалиста: направление 10.05.04 «Информационно-аналитические системы безопасности» ; образовательная программа 10.05.04_01 «Автоматизация информационно-аналитической деятельности» |
---|---|
Creators | Безбородов Павел Дмитриевич |
Scientific adviser | Лаврова Дарья Сергеевна |
Organization | Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности |
Imprint | Санкт-Петербург, 2025 |
Collection | Выпускные квалификационные работы ; Общая коллекция |
Subjects | федеративное обучение ; нейросетевые модели ; методы оптимизации ; градиентный спуск ; federated learning ; neural network models ; optimization methods ; gradient descent |
Document type | Specialist graduation qualification work |
File type | |
Language | Russian |
Level of education | Specialist |
Speciality code (FGOS) | 10.05.04 |
Speciality group (FGOS) | 100000 - Информационная безопасность |
DOI | 10.18720/SPBPU/3/2025/vr/vr25-41 |
Rights | Доступ по паролю из сети Интернет (чтение) |
Additionally | New arrival |
Record key | ru\spstu\vkr\34221 |
Record create date | 2/27/2025 |
Allowed Actions
–
Action 'Read' will be available if you login or access site from another network
Group | Anonymous |
---|---|
Network | Internet |
Тема выпускной квалификационной работы: «Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения». Целью работы является противодействие угрозам нарушения конфиденциальности в сетях федеративного обучения. Предметом исследования являются методы по обеспечению конфиденциальности нейросетевых моделей и методы оптимизации. Задачи, решаемые в ходе исследования: 1. Исследовать проблемы конфиденциальности нейросетевых моделей в сетях федеративного обучения. 2. Проанализировать существующие методы по обеспечению конфиденциальности нейросетевых моделей в сетях федеративного обучения. 3. Оценить возможность применения модификации градиентного спуска для обеспечения конфиденциальности нейросетевых моделей. 4. Выполнить программную реализацию предложенного метода. 5. Оценить надежность метода с точки зрения обеспечения конфиденциальности и определить оптимальные значения параметров. В ходе работы была исследована возможность манипуляции градиентным спуском с целью защиты нейросетевых моделей узлов федеративного обучения. В результате работы был предложен метод, позволяющий обеспечить конфиденциальность нейросетевых моделей участников федеративного обучения. Был сделан вывод о необходимости проведения дальнейших исследований проблем безопасности в сетях федеративного обучения. Полученные результаты могут быть использованы в качестве основы для создания сетей федеративного обучения с повышенной степенью конфиденциальности нейросетевых моделей.
The topic of the graduate qualification work is «Protecting neural network models from privacy violation threats in federated learning networks». The purpose of the study is countering threats of privacy violation in federated learning networks. The subject of the study is methods on privacy protection of neural network models and gradient descent optimization. The research set the following goals: 1. Investigate the privacy issues of neural network models in federated learning networks. 2. Analyze the existing methods to ensure the privacy of neural network models in federated learning networks. 3. Evaluate the feasibility of gradient descent optimization techniques to ensure the privacy of neural network models. 4. Perform a software implementation of the proposed method. 5. Evaluate the robustness of the method in terms of privacy and determine the optimal parameter values. During the work the possibility of manipulating gradient descent to protect neural network models of federated learning nodes was investigated. method was proposed to ensure the privacy of neural network models of federated learning participants. It was concluded that further research on security issues in federated learning networks is needed. The results could be used as a basis for creating federated learning networks with increased privacy of neural network models.
Network | User group | Action |
---|---|---|
ILC SPbPU Local Network | All |
|
Internet | Authorized users SPbPU |
|
Internet | Anonymous |
|
Access count: 0
Last 30 days: 0