Детальная информация

Название: Исследование применимости методов дистилляции знаний для создания высокоэффективных нейронных сетей: выпускная квалификационная работа бакалавра: направление 15.03.06 «Мехатроника и робототехника» ; образовательная программа 15.03.06_04 «Автономные роботы»
Авторы: Николаева Эльвира Сергеевна
Научный руководитель: Бахшиев Александр Валерьевич
Организация: Санкт-Петербургский политехнический университет Петра Великого. Институт машиностроения, материалов и транспорта
Выходные сведения: Санкт-Петербург, 2022
Коллекция: Выпускные квалификационные работы; Общая коллекция
Тематика: нейронная сеть; дистилляция знаний; глубокое обучение; квантизация нейросетей; neural network; knowledge distillation; deep learning; neural network quantization
Тип документа: Выпускная квалификационная работа бакалавра
Тип файла: PDF
Язык: Русский
Уровень высшего образования: Бакалавриат
Код специальности ФГОС: 15.03.06
Группа специальностей ФГОС: 150000 - Машиностроение
DOI: 10.18720/SPBPU/3/2022/vr/vr22-3125
Права доступа: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Ключ записи: ru\spstu\vkr\19554

Разрешенные действия:

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети Действие 'Загрузить' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа: Анонимные пользователи

Сеть: Интернет

Аннотация

Цель работы заключается в исследовании применимости методов дистилляции знаний для создания высокоэффективных нейронных сетей. Объект исследования – дистилляция знаний нейронных сетей. В работе проведен обзор классических методов сжатия, методов, использующих фиксированную структуру нейросети ученика, и методов, учитывающих структурные знания при поиске архитектур нейросетей учеников в дистилляции знаний. Также проведен аналитический обзор рассмотренных методов дистилляции знаний. Проведено экспериментальное сравнение методов самостоятельного обучения, классического сжатия и дистилляции знаний нейросетей в рамках решения задачи классификации изображений на стандартных наборах данных CIFAR-10 и CIFAR-100. По итогам тестов составлены таблицы сравнения точности и быстродействия нейросетей, полученных с помощью рассматриваемых методов.

The goal of the work is to investigate the applicability of knowledge distillation methods to create high-performance neural networks. The object of the study is knowledge distillation of neural networks. In this paper, are reviewed the classical methods of compression, methods that use a fixed structure of the student neural network, and methods that take into account the structural knowledge in the search for student neural network architectures in the knowledge distillation. An analytical review of the reviewed knowledge distillation methods was also conducted. Experimental comparison of self-learning methods, classical compression and knowledge distillation methods for neural networks in the context of the image classification problem on the standard data sets CIFAR-10 and CIFAR-100 has been conducted. Based on the results of the tests, the tables comparing the accuracy and performance of neural networks obtained using the methods under consideration is compiled.

Права на использование объекта хранения

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все Прочитать Печать Загрузить
Интернет Авторизованные пользователи СПбПУ Прочитать Печать Загрузить
-> Интернет Анонимные пользователи

Статистика использования

stat Количество обращений: 7
За последние 30 дней: 0
Подробная статистика