Детальная информация
Название | Sequence-to-Sequence based english-chinese translation model // Научно-технические ведомости Санкт-Петербургского государственного политехнического университета. Сер.: Информатика. Телекоммуникации. Управление: научное издание. – 2018. – Т. 11, № 2 |
---|---|
Авторы | Tian Zhaolin ; Zhang Weiwei |
Организация | Санкт-Петербургский политехнический университет Петра Великого |
Выходные сведения | Санкт-Петербург: Изд-во Политехн. ун-та, 2018 |
Коллекция | Общая коллекция |
Тематика | Вычислительная техника ; Прикладные информационные (компьютерные) технологии в целом ; искусственный интеллект ; машинный перевод ; англо-китайский перевод ; нейронные сети ; переводные схемы ; sequence-to-sequence ; кодировщики ; artificial intelligence ; machine translation ; english-chinese translation ; neural network ; conversion scheme ; coders |
УДК | 004.9 |
ББК | 32.973-018.2 |
Тип документа | Статья, доклад |
Тип файла | |
Язык | Английский |
DOI | 10.18721/JCSTCS.11205 |
Права доступа | Свободный доступ из сети Интернет (чтение, печать, копирование) |
Ключ записи | RU\SPSTU\edoc\55978 |
Дата создания записи | 08.11.2018 |
To build a model of neural machine translation from English to Chinese, the currently popular seq2seq translation scheme is used. Long short-term memory (LSTM) method was used instead of the traditionally used recurrent neural network to solve the problem of explosion and disappearance of the gradient for long strings. The mechanism allowing neural networks to pay more attention to the corresponding parts of input sequences and less – to the unbound parts at performance of tasks of forecasting is considered.
Для построения модели нейронного машинного перевода с английского на китайский использована популярная в настоящее время схема перевода seq2seq. Вместо традиционно применяемой рекуррентной нейронной сети для решения возникающей проблемы взрыва и исчезновения градиента для длинных строк использован метод долгой краткосрочной памяти (LSTM). Рассмотрен механизм, позволяющий нейронным сетям уделять больше внимания соответствующим частям входных последовательностей и меньше – несвязанным частям при выполнении задач прогнозирования.
Количество обращений: 461
За последние 30 дней: 18