Details

Title: Обучение нейронных сетей без раскрытия обучающей выборки: выпускная квалификационная работа специалиста: направление 10.05.03 «Информационная безопасность автоматизированных систем» ; образовательная программа 10.05.03_08 «Анализ безопасности информационных систем»
Creators: Савков Даниил Павлович
Scientific adviser: Москвин Дмитрий Андреевич
Organization: Санкт-Петербургский политехнический университет Петра Великого. Институт кибербезопасности и защиты информации
Imprint: Санкт-Петербург, 2022
Collection: Выпускные квалификационные работы; Общая коллекция
Subjects: нейронные сети; обучение без раскрытия обучающей выборки; методы сокрытия данных; neural networks; learning without revealing the training sample; methods of hiding data
Document type: Specialist graduation qualification work
File type: PDF
Language: Russian
Level of education: Specialist
Speciality code (FGOS): 10.05.03
Speciality group (FGOS): 100000 - Информационная безопасность
DOI: 10.18720/SPBPU/3/2022/vr/vr22-674
Rights: Доступ по паролю из сети Интернет (чтение)
Record key: ru\spstu\vkr\16641

Allowed Actions:

Action 'Read' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

Тема выпускной квалификационной работы: «Обучение нейронных сетей без раскрытия обучающей выборки».Целью работы является сохранение целостности конфиденциальных данных при использовании нейронных сетей. Предметом исследования являются современные методы обучения нейронных сетей с применением методов сокрытия обучающей выборки. Задачи, решаемые в ходе исследования:Исследование методов сокрытия данных в нейронных сетях.Анализ современных исследований в области обучения нейронных сетей без раскрытия обучающей выборки.Разработка метода обучения нейронных сетей без предоставления прямого доступа к обучающей выборке.Программная реализация разработанного метода.Оценка скорости и точности работы созданного средства.В ходе работы была исследована архитектура и реализация методов машинного обучения по закрытым данным. Были проанализированы современные исследования в области обеспечения безопасности при обучении нейронных сетей.В результате работы было разработано средство обучения нейронных сетей без раскрытия исходных данных, была продемонстрирована эффективность средства. Был сделан вывод, что механизмы обучения нейронных сетей по закрытым данным мало изучены.Полученные результаты могут быть использованы в качестве основы для проектирования систем нейронных сетей с использованием конфиденциальных данных.

The topic of the graduate qualification work is «Training of neural networks without disclosure of the training sample».The purpose of the work is to preserve the integrity of confidential data when using neural networks. The subject of the study is modern methods of training neural networks using methods of hiding the training sample. The research set the following goals:Research of data hiding methods in neural networks.Analysis of modern research in the field of neural network training without revealing the training sample.Development of a method for training neural networks without providing direct access to the training sample.Software implementation of the developed method.Scanning defect accuracy and speed assessment of the developed software implementation.In the course of the work, the architecture and implementation of machine learning methods based on closed data were investigated. Modern research in the field of security in the training of neural networks was analyzed.As a result of the work, a training tool for neural networks was developed without disclosing the source data, and the effectiveness of the tool was demonstrated. It was concluded that the learning mechanisms of neural networks based on closed data are poorly understood.The results obtained can be used as a basis for designing neural network systems using confidential data.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read
Internet Authorized users SPbPU Read
-> Internet Anonymous

Usage statistics

stat Access count: 7
Last 30 days: 0
Detailed usage statistics