Таблица | Карточка | RUSMARC | |
Разрешенные действия: –
Действие 'Прочитать' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети
Действие 'Загрузить' будет доступно, если вы выполните вход в систему или будете работать с сайтом на компьютере в другой сети
Группа: Анонимные пользователи Сеть: Интернет |
Аннотация
Данная работа посвящена разработке системы управления колесного робота на основе нейротропных алгоритмов. В работе описываются средства, применяемые для обучения нейронных сетей, а также принципы работы нейронных сетей. Исследованы возможности подключения внешних модулей к ROS и V-REP. Сформулирован метод считывания данных с DVS, а также разбиение полученных изображений для составления карты наград. В среде робомоделирования V-REP было проведено обучение нейронных сетей для управления моделью колесного робота. Готовые контроллеры управления были обучены 2 способами и исследованы на скорость обучения и распределение ошибок следования идеальному маршруту.
This project devoted to the development of a control system for a wheeled robot based on neural network algorithms. The paper describes the tools used to train neural networks, as well as the principles of operation of neural networks. The possibilities of connecting external modules to ROS and V-REP are investigated. A method for reading data from DVS is formulated, as well as splitting the obtained images to create an award map. In the V-REP environment, neural networks were trained to control a wheeled robot model. Ready control controllers were trained in 2 ways and examined for the speed of learning and the distribution of errors following the ideal route.
Права на использование объекта хранения
Место доступа | Группа пользователей | Действие | ||||
---|---|---|---|---|---|---|
Локальная сеть ИБК СПбПУ | Все | |||||
Интернет | Авторизованные пользователи СПбПУ | |||||
Интернет | Анонимные пользователи |
Оглавление
- ПЕРЕЧЕНЬ УСЛОВНЫХ ОБОЗНАЧЕНИЙ И СОКРАЩЕНИЙ
- ВВЕДЕНИЕ
- 1. НЕЙРОСЕТИ И ИХ ОБУЧЕНИЕ
- 1.1 Обучение с подкреплением
- 1.1.1 Темпорально-разностное обучение
- 1.1.2 Приемлемость
- 1.1.3 Deep Q-Learning
- 1.2 Искусственная нейронная сеть
- 1.2.1 Биологический фон
- 1.2.2 От Мак-каллока до наших дней
- 1.2.3 Спайковая нейронная сеть
- 1.1 Обучение с подкреплением
- 2. МЕТОДОЛОГИЯ
- 2.1 Среда симуляции
- 2.1.1 Следование правой стороне дороги
- 2.1.2 Pioneer P3-DX
- 2.1.3 Сенсор Dynamic Vision
- 2.2 Контроллеры
- 2.2.1 DQN
- 2.2.1.1 Следование линии в MDP
- 2.2.1.2 Контроллер 1: DQN
- 2.2.1.4 Контроллер 2: DQN-SNN
- 2.2.2 R-STDP
- 2.2.2.1 Контроллер 3: Тележка Брайтенберга
- 2.2.2.2 Контроллер 4: R-STDP
- 2.2.1 DQN
- 2.1 Среда симуляции
- 3. Исследование результатов
- 3.1 Сценарии следования за полосой движения
- 3.2 ПРОЦЕСС И РЕЗУЛЬТАТЫ ОБУЧЕНИЯ
- 3.2.1 Контроллер 1: DQN
- 3.2.2 Контроллер 2: DQN-SNN
- 3.2.3 Контроллер 3: Тележка Брайтенберга
- 3.2.4 Контроллер 4: R-STDP
- 3.3 Сравнение производительности.
- Заключение
- Список литературы
- Приложение А. Параметры симуляций
- Приложение Б. Дополнительные детали обучения
- Приложение В. Тексты программ.
Статистика использования
Количество обращений: 37
За последние 30 дней: 1 Подробная статистика |