Details
Title | Sequence-to-Sequence based english-chinese translation model // Научно-технические ведомости Санкт-Петербургского государственного политехнического университета. Сер.: Информатика. Телекоммуникации. Управление: научное издание. – 2018. – Т. 11, № 2 |
---|---|
Creators | Tian Zhaolin ; Zhang Weiwei |
Organization | Санкт-Петербургский политехнический университет Петра Великого |
Imprint | Санкт-Петербург: Изд-во Политехн. ун-та, 2018 |
Collection | Общая коллекция |
Subjects | Вычислительная техника ; Прикладные информационные (компьютерные) технологии в целом ; искусственный интеллект ; машинный перевод ; англо-китайский перевод ; нейронные сети ; переводные схемы ; sequence-to-sequence ; кодировщики ; artificial intelligence ; machine translation ; english-chinese translation ; neural network ; conversion scheme ; coders |
UDC | 004.9 |
LBC | 32.973-018.2 |
Document type | Article, report |
File type | |
Language | English |
DOI | 10.18721/JCSTCS.11205 |
Rights | Свободный доступ из сети Интернет (чтение, печать, копирование) |
Record key | RU\SPSTU\edoc\55978 |
Record create date | 11/8/2018 |
To build a model of neural machine translation from English to Chinese, the currently popular seq2seq translation scheme is used. Long short-term memory (LSTM) method was used instead of the traditionally used recurrent neural network to solve the problem of explosion and disappearance of the gradient for long strings. The mechanism allowing neural networks to pay more attention to the corresponding parts of input sequences and less – to the unbound parts at performance of tasks of forecasting is considered.
Для построения модели нейронного машинного перевода с английского на китайский использована популярная в настоящее время схема перевода seq2seq. Вместо традиционно применяемой рекуррентной нейронной сети для решения возникающей проблемы взрыва и исчезновения градиента для длинных строк использован метод долгой краткосрочной памяти (LSTM). Рассмотрен механизм, позволяющий нейронным сетям уделять больше внимания соответствующим частям входных последовательностей и меньше – несвязанным частям при выполнении задач прогнозирования.
Access count: 450
Last 30 days: 24