Table | Card | RUSMARC | |
Allowed Actions: Read Download (1.3 Mb) Group: Anonymous Network: Internet |
Annotation
To build a model of neural machine translation from English to Chinese, the currently popular seq2seq translation scheme is used. Long short-term memory (LSTM) method was used instead of the traditionally used recurrent neural network to solve the problem of explosion and disappearance of the gradient for long strings. The mechanism allowing neural networks to pay more attention to the corresponding parts of input sequences and less – to the unbound parts at performance of tasks of forecasting is considered.
Для построения модели нейронного машинного перевода с английского на китайский использована популярная в настоящее время схема перевода seq2seq. Вместо традиционно применяемой рекуррентной нейронной сети для решения возникающей проблемы взрыва и исчезновения градиента для длинных строк использован метод долгой краткосрочной памяти (LSTM). Рассмотрен механизм, позволяющий нейронным сетям уделять больше внимания соответствующим частям входных последовательностей и меньше – несвязанным частям при выполнении задач прогнозирования.
Usage statistics
Access count: 266
Last 30 days: 1 Detailed usage statistics |