• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2019 年度 実績報告書

異構造の言語間翻訳の精度改善のための構文森に基づくニューラル機械翻訳の研究

研究課題

研究課題/領域番号 18K18110
研究機関愛媛大学

研究代表者

田村 晃裕  愛媛大学, 理工学研究科(工学系), 助教 (20804165)

研究期間 (年度) 2018-04-01 – 2020-03-31
キーワードニューラル機械翻訳 / 構文森 / Transformer / ニューラルネットワーク / 機械翻訳
研究実績の概要

本研究は、構文解析の複数の解析結果を圧縮して表現した構文森を活用することで、ニューラル機械翻訳(NMT)の性能改善を目指すものである。研究期間全体を通じて、研究実施計画通り、(1)入力文の構文森を系列データに変換した後で系列変換モデルによるNMTで翻訳を行う方法(2018年度実施)と(2)入力文の構文森をNMTモデル内で直接エンコードする方法(最終年度実施)の2種類の提案モデルを考案し、その有効性を確認した。
2018年度に実施した方法(1)に関する研究では、構文森を系列に変換し、変換した構文森の系列に基づき翻訳を行うリカレントニューラルネットワーク(RNN)に基づくNMTモデルを考案した。そして、ASPECデータを用いた科学技術論文に関する英日翻訳実験を通じて、提案モデルは、構文情報を使わない場合や構文木を使用する場合よりも、翻訳性能の評価指標であるBLEUで、それぞれ、5.07、2.75ポイント翻訳性能が良いことを示した。
最終年度に実施した方法(2)に関する研究では、近年のNMTで最高性能を達成しているTransformerモデルの内部(自己注意機構及び位置エンコーディング)で構文森の情報を活用する方法を考案した。そして、ASPECデータを用いた科学技術論文に関する英日翻訳実験を通じて、提案モデルは、構文情報を使わない場合や構文木を使用する場合よりも、BLEUで、それぞれ、1.99、0.6ポイント翻訳性能が良いことを示した。
これらの研究成果により、構文森を活用することで英日翻訳の精度が向上することを明らかにし、実施した翻訳設定において、従来の構文情報を用いないNMTや構文木に基づくNMTより翻訳精度が高い、最高の翻訳精度を達成するNMTモデルを実現した。また、実施した翻訳設定では、方法(2)よりも方法(1)の性能の改善幅が大きく、翻訳精度も高いことが分かった。

  • 研究成果

    (5件)

すべて 2020 2019

すべて 雑誌論文 (2件) (うち査読あり 2件、 オープンアクセス 2件) 学会発表 (3件) (うち国際学会 3件)

  • [雑誌論文] Syntax-based Transformer for Neural Machine Translation2020

    • 著者名/発表者名
      Chunpeng Ma, Akihiro Tamura, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
    • 雑誌名

      Journal of Natural Language Processing

      巻: 27(2) ページ: -

    • 査読あり / オープンアクセス
  • [雑誌論文] Encoder-Decoder Attention ≠ Word Alignment: Axiomatic Method of Learning Word Alignments for Neural Machine Translation2020

    • 著者名/発表者名
      Chunpeng Ma, Akihiro Tamura, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
    • 雑誌名

      Journal of Natural Language Processing

      巻: 27(3) ページ: -

    • 査読あり / オープンアクセス
  • [学会発表] Dependency-Based Relative Positional Encoding for Transformer NMT2019

    • 著者名/発表者名
      Yutaro Omote, Akihiro Tamura, Takashi Ninomiya
    • 学会等名
      International Conference on Recent Advances in Natural Language Processing 2019
    • 国際学会
  • [学会発表] Dependency-Based Self-Attention for Transformer NMT2019

    • 著者名/発表者名
      Hiroyuki Deguchi, Akihiro Tamura, Takashi Ninomiya
    • 学会等名
      International Conference on Recent Advances in Natural Language Processing 2019
    • 国際学会
  • [学会発表] Improving Neural Machine Translation with Neural Syntactic Distance2019

    • 著者名/発表者名
      Chunpeng Ma, Akihiro Tamura, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
    • 学会等名
      2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies
    • 国際学会

URL: 

公開日: 2021-01-27  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi