Детальная информация

Название: Neural network with deep symbolic reinforcement learning: магистерская диссертация: 09.04.01
Авторы: Ресенде Рикетти Дитра Аймори
Научный руководитель: Шкодырев Вячеслав Петрович
Организация: Санкт-Петербургский политехнический университет Петра Великого. Институт компьютерных наук и технологий
Выходные сведения: Санкт-Петербург, 2017
Коллекция: Выпускные квалификационные работы; Общая коллекция
Тематика: Нейронные сети; Искусственный интеллект; Алгоритмы; самообучение
УДК: 004.032.26:004.421(043.3); 004.85(043.3)
Тип документа: Выпускная квалификационная работа магистра
Тип файла: PDF
Язык: Английский
Уровень высшего образования: Магистратура
Код специальности ФГОС: 09.04.01
Группа специальностей ФГОС: 090000 - Информатика и вычислительная техника
DOI: 10.18720/SPBPU/2/v17-2595
Права доступа: Доступ по паролю из сети Интернет (чтение, печать, копирование)
Ключ записи: RU\SPSTU\edoc\44322

Разрешенные действия:

Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети Действие 'Загрузить' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети

Группа: Анонимные пользователи

Сеть: Интернет

Аннотация

This project investigates the advantages and disadvantages of two Reinforcement Learning algorithms, Deep Q-Network and Deep Symbolic Reinforcement Learning. The focus is to demonstrate clearly what and how these techniques are really learning in simple toy game examples. Moreover, it identifies what are the gains that the symbolic approach brings to problems in the reinforcement learning framework. For this, it was implemented in Python a simplified version of these algorithms maintaining their main learning capabilities. With the developed software, their performances are contrasted in some proposed problems, where their ability to generalize and learning speed are evaluated. Finally, it is concluded that the Deep Symbolic approach has more advantages than disadvantages compared to the state of the art, Deep Q-Network.

Этот проект исследует преимущества и недостатки двух алгоритмов обучения с подкреплением, Q-сети с самообучением и символическое самообучение с подкреплением. Акцент делается, чтобы наглядно продемонстрировать, чем и как эти методы действительно обучения как пример простой игры. Кроме того, он определяет, каковы успехи, что символический подход приводит к проблемам в укреплении базового обучения. Для этого был реализован в Python упрощённый вариант этих алгоритмов сохранения их основной функции обучения. С помощью разработанного программного обеспечения, их представления противопоставлены в некоторых предлагаемых проблемах, где оцениваются их способности к обобщению и скорость обучения. Наконец, сделан вывод, что символический подход к самообучению имеет больше преимуществ, чем недостатков по сравнению с современными, самообучающимися Q-сетями.

Права на использование объекта хранения

Место доступа Группа пользователей Действие
Локальная сеть ИБК СПбПУ Все Прочитать Печать Загрузить
Интернет Авторизованные пользователи СПбПУ Прочитать Печать Загрузить
-> Интернет Анонимные пользователи

Статистика использования

stat Количество обращений: 82
За последние 30 дней: 0
Подробная статистика