Details

Title: Исследование и сравнительный анализ алгоритмов оптимизации градиентного спуска в моделях глубокого обучения: выпускная квалификационная работа бакалавра: направление 09.03.04 «Программная инженерия» ; образовательная программа 09.03.04_01 «Технология разработки и сопровождения качественного программного продукта»
Creators: Боженко Диана Вячеславовна
Scientific adviser: Черноруцкий Игорь Георгиевич
Other creators: Локшина Екатерина Геннадиевна
Organization: Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и технологий
Imprint: Санкт-Петербург, 2020
Collection: Выпускные квалификационные работы; Общая коллекция
Subjects: алгоритм оптимизации; градиентный спуск; MNIST; LSTM; нейронная сеть; глубокое обучение; optimization algorithm; gradient descent; neural network; deep learning
Document type: Bachelor graduation qualification work
File type: PDF
Language: Russian
Level of education: Bachelor
Speciality code (FGOS): 09.03.04
Speciality group (FGOS): 090000 - Информатика и вычислительная техника
Links: Отзыв руководителя; Отчет о проверке на объем и корректность внешних заимствований
DOI: 10.18720/SPBPU/3/2020/vr/vr20-1231
Rights: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Record key: ru\spstu\vkr\6532

Allowed Actions:

Action 'Read' will be available if you login or access site from another network Action 'Download' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

Данная работа посвящена исследованию алгоритмов оптимизации в методах машинного обучения. Целью работы является выявление наилучших алгоритмов оптимизации. Проведен обзор алгоритмов оптимизации, которые используются в моделях глубокого обучения. Реализованы предложенные алгоритмы оптимизации. Исследован набор тестов для сравнения различных методов.

This work is devoted to the study of optimization algorithms in machine learning methods. The aim of the work is to identify the best optimization algorithms. The optimization algorithms used in deep learning models are reviewed. The proposed optimization algorithms are implemented. The set of tests for comparing different methods is investigated.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read Print Download
Internet Authorized users SPbPU Read Print Download
-> Internet Anonymous

Table of Contents

  • Перечень рисунков
    • Перечень таблиц
    • Сокращения
  • Введение
  • Глава 1. Обзор литературы
    • 1.1. Алгоритмы оптимизации, основанные на импульсе
  • 1.1.1. Классический градиентный спуск
  • 1.1.2. Классический импульс
  • 1.1.3. Импульс Нестерова
    • 1.2. Адаптивные алгоритмы оптимизации
  • 1.2.1. Адаптивный субградиентный спуск
  • 1.2.2. Алгоритм оптимизации RMSProp
    • 1.3. Комбинации алгоритмов
      • 1.3.1. Adam
      • 1.3.2. AdaMax
    • 1.4. Методы
  • 1.4.1. Модифицированный NAG
  • 1.4.2. NAG совместно с Adam
    • 1.5. Выводы
  • Глава 2. Реализация
  • 2.1. Библиотека Keras
  • 2.2. Реализация алгоритма оптимизации Nadam
  • 2.3. Эксперименты
    • 2.3.1. Распознавание изображений MNIST
    • 2.3.2. Языковая модель LSTM
  • 2.4. Выводы
  • Глава 3. Результаты.
  • 3.1. Распознавание изображений MNIST
  • 3.2. Языковая модель LSTM
  • 3.2. Сравнение алгоритмов оптимизации
  • 3.4. Выводы
  • Заключение
  • Список использованных источников
  • Приложение 1
  • Приложение 2
  • Приложение 3
  • m = self.get_slot(var, 'm')
  • v = self.get_slot(var, 'v')
  • Приложение 4

Usage statistics

stat Access count: 39
Last 30 days: 0
Detailed usage statistics