Детальная информация

Название Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения: выпускная квалификационная работа специалиста: направление 10.05.04 «Информационно-аналитические системы безопасности» ; образовательная программа 10.05.04_01 «Автоматизация информационно-аналитической деятельности»
Авторы Безбородов Павел Дмитриевич
Научный руководитель Лаврова Дарья Сергеевна
Организация Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и кибербезопасности
Выходные сведения Санкт-Петербург, 2025
Коллекция Выпускные квалификационные работы ; Общая коллекция
Тематика федеративное обучение ; нейросетевые модели ; методы оптимизации ; градиентный спуск ; federated learning ; neural network models ; optimization methods ; gradient descent
Тип документа Выпускная квалификационная работа специалиста
Тип файла PDF
Язык Русский
Уровень высшего образования Специалитет
Код специальности ФГОС 10.05.04
Группа специальностей ФГОС 100000 - Информационная безопасность
DOI 10.18720/SPBPU/3/2025/vr/vr25-41
Права доступа Доступ по паролю из сети Интернет (чтение)
Дополнительно Новинка
Ключ записи ru\spstu\vkr\34221
Дата создания записи 27.02.2025

Разрешенные действия

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа Анонимные пользователи
Сеть Интернет

Тема выпускной квалификационной работы: «Защита нейросетевых моделей от угроз нарушения конфиденциальности в сетях федеративного обучения». Целью работы является противодействие угрозам нарушения конфиденциальности в сетях федеративного обучения. Предметом исследования являются методы по обеспечению конфиденциальности нейросетевых моделей и методы оптимизации. Задачи, решаемые в ходе исследования: 1. Исследовать проблемы конфиденциальности нейросетевых моделей в сетях федеративного обучения. 2. Проанализировать существующие методы по обеспечению конфиденциальности нейросетевых моделей в сетях федеративного обучения. 3. Оценить возможность применения модификации градиентного спуска для обеспечения конфиденциальности нейросетевых моделей. 4. Выполнить программную реализацию предложенного метода. 5. Оценить надежность метода с точки зрения обеспечения конфиденциальности и определить оптимальные значения параметров. В ходе работы была исследована возможность манипуляции градиентным спуском с целью защиты нейросетевых моделей узлов федеративного обучения. В результате работы был предложен метод, позволяющий обеспечить конфиденциальность нейросетевых моделей участников федеративного обучения. Был сделан вывод о необходимости проведения дальнейших исследований проблем безопасности в сетях федеративного обучения. Полученные результаты могут быть использованы в качестве основы для создания сетей федеративного обучения с повышенной степенью конфиденциальности нейросетевых моделей.

The topic of the graduate qualification work is «Protecting neural network models from privacy violation threats in federated learning networks». The purpose of the study is countering threats of privacy violation in federated learning networks. The subject of the study is methods on privacy protection of neural network models and gradient descent optimization. The research set the following goals: 1. Investigate the privacy issues of neural network models in federated learning networks. 2. Analyze the existing methods to ensure the privacy of neural network models in federated learning networks. 3. Evaluate the feasibility of gradient descent optimization techniques to ensure the privacy of neural network models. 4. Perform a software implementation of the proposed method. 5. Evaluate the robustness of the method in terms of privacy and determine the optimal parameter values. During the work the possibility of manipulating gradient descent to protect neural network models of federated learning nodes was investigated. method was proposed to ensure the privacy of neural network models of federated learning participants. It was concluded that further research on security issues in federated learning networks is needed. The results could be used as a basis for creating federated learning networks with increased privacy of neural network models.

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все
Прочитать
Интернет Авторизованные пользователи СПбПУ
Прочитать
Интернет Анонимные пользователи

Количество обращений: 0 
За последние 30 дней: 0

Подробная статистика