С 17 марта 2020 г. для образовательных ресурсов Электронной библиотеки СПбПУ установлен особый режим их использования

Details

Title: Sequence-to-Sequence based english-chinese translation model // Научно-технические ведомости Санкт-Петербургского государственного политехнического университета. Сер.: Информатика. Телекоммуникации. Управление: научное издание. – 2018. – Т. 11, № 2
Creators: Tian Zhaolin; Zhang Weiwei
Organization: Санкт-Петербургский политехнический университет Петра Великого
Imprint: Санкт-Петербург: Изд-во Политехн. ун-та, 2018
Collection: Общая коллекция
Subjects: Вычислительная техника; Прикладные информационные (компьютерные) технологии в целом; искусственный интеллект; машинный перевод; англо-китайский перевод; нейронные сети; переводные схемы; sequence-to-sequence; кодировщики; artificial intelligence; machine translation; english-chinese translation; neural network; conversion scheme; coders
UDC: 004.9
LBC: 32.973-018.2
Document type: Article, report
Language: English
DOI: 10.18721/JCSTCS.11205
Rights: Свободный доступ из сети Интернет (чтение, печать, копирование)

Allowed Actions: Read

Action 'Download' will be available if you login or access site from another network

Group: Anonymous

Network: Internet

Annotation

To build a model of neural machine translation from English to Chinese, the currently popular seq2seq translation scheme is used. Long short-term memory (LSTM) method was used instead of the traditionally used recurrent neural network to solve the problem of explosion and disappearance of the gradient for long strings. The mechanism allowing neural networks to pay more attention to the corresponding parts of input sequences and less – to the unbound parts at performance of tasks of forecasting is considered.

Для построения модели нейронного машинного перевода с английского на китайский использована популярная в настоящее время схема перевода seq2seq. Вместо традиционно применяемой рекуррентной нейронной сети для решения возникающей проблемы взрыва и исчезновения градиента для длинных строк использован метод долгой краткосрочной памяти (LSTM). Рассмотрен механизм, позволяющий нейронным сетям уделять больше внимания соответствующим частям входных последовательностей и меньше – несвязанным частям при выполнении задач прогнозирования.

Document access rights

Network User group Action
ILC SPbPU Local Network All Read Print Download
Internet Authorized users Read Print Download
-> Internet Anonymous Read

Document usage statistics

stat Document access count: 73
Last 30 days: 7
Detailed usage statistics