Details

Title Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения: выпускная квалификационная работа специалиста: направление 10.05.04 «Информационно-аналитические системы безопасности» ; образовательная программа 10.05.04_01 «Автоматизация информационно-аналитической деятельности»
Creators Безбородов Павел Дмитриевич
Scientific adviser Лаврова Дарья Сергеевна
Organization Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Imprint Санкт-Петербург, 2025
Collection Выпускные квалификационные работы ; Общая коллекция
Subjects федеративное обучение ; нейросетевые модели ; методы оптимизации ; градиентный спуск ; federated learning ; neural network models ; optimization methods ; gradient descent
Document type Specialist graduation qualification work
File type PDF
Language Russian
Level of education Specialist
Speciality code (FGOS) 10.05.04
Speciality group (FGOS) 100000 - Информационная безопасность
DOI 10.18720/SPBPU/3/2025/vr/vr25-41
Rights Доступ по паролю из сети Интернет (чтение)
Additionally New arrival
Record key ru\spstu\vkr\34221
Record create date 2/27/2025

Allowed Actions

Action 'Read' will be available if you login or access site from another network

Group Anonymous
Network Internet

Тема выпускной квалификационной работы: «Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения». Целью работы является противодействие угрозам нарушения конфиденциальности в сетях федеративного обучения. Предметом исследования являются методы по обеспечению конфиденциальности нейросетевых моделей и методы оптимизации. Задачи, решаемые в ходе исследования: 1. Исследовать проблемы конфиденциальности нейросетевых моделей в сетях федеративного обучения. 2. Проанализировать существующие методы по обеспечению конфиденциальности нейросетевых моделей в сетях федеративного обучения. 3. Оценить возможность применения модификации градиентного спуска для обеспечения конфиденциальности нейросетевых моделей. 4. Выполнить программную реализацию предложенного метода. 5. Оценить надежность метода с точки зрения обеспечения конфиденциальности и определить оптимальные значения параметров. В ходе работы была исследована возможность манипуляции градиентным спуском с целью защиты нейросетевых моделей узлов федеративного обучения. В результате работы был предложен метод, позволяющий обеспечить конфиденциальность нейросетевых моделей участников федеративного обучения. Был сделан вывод о необходимости проведения дальнейших исследований проблем безопасности в сетях федеративного обучения. Полученные результаты могут быть использованы в качестве основы для создания сетей федеративного обучения с повышенной степенью конфиденциальности нейросетевых моделей.

The topic of the graduate qualification work is «Protecting neural network models from privacy violation threats in federated learning networks». The purpose of the study is countering threats of privacy violation in federated learning networks. The subject of the study is methods on privacy protection of neural network models and gradient descent optimization. The research set the following goals: 1. Investigate the privacy issues of neural network models in federated learning networks. 2. Analyze the existing methods to ensure the privacy of neural network models in federated learning networks. 3. Evaluate the feasibility of gradient descent optimization techniques to ensure the privacy of neural network models. 4. Perform a software implementation of the proposed method. 5. Evaluate the robustness of the method in terms of privacy and determine the optimal parameter values. During the work the possibility of manipulating gradient descent to protect neural network models of federated learning nodes was investigated. method was proposed to ensure the privacy of neural network models of federated learning participants. It was concluded that further research on security issues in federated learning networks is needed. The results could be used as a basis for creating federated learning networks with increased privacy of neural network models.

Network User group Action
ILC SPbPU Local Network All
Read
Internet Authorized users SPbPU
Read
Internet Anonymous

Access count: 0 
Last 30 days: 0

Detailed usage statistics