研究課題/領域番号 |
16H05872
|
研究機関 | 東京大学 |
研究代表者 |
中山 英樹 東京大学, 大学院情報理工学系研究科, 講師 (00643305)
|
研究期間 (年度) |
2016-04-01 – 2019-03-31
|
キーワード | 機械翻訳 / 教師なし学習 / 自然言語処理 / 深層学習 / データ圧縮 |
研究実績の概要 |
提案するゼロショット機械翻訳を実現する基本的な手法は既に前年度に完成させているが、本年度はまずその成果の取りまとめおよびジャーナル論文投稿を行い、Machine Translation Journalへ採択された。 これに加え、本年度の新たな目標とした各要素技術の開発においても、順調に良好な成果を得た。まず、エンコーダネットワークの改良を目指し、アテンション機構における適切な窓幅を入力に応じて決定することで計算量の削減を行うflexible attention法を開発した。本手法は、ニューラル機械翻訳の専門国際ワークショップであるACL Neural Machine Translation Workshopに採択され、Best paper runner-upを受賞した。 デコーダネットワークの改良については、ツリー構造を用いてビームサーチよりも効率的に解空間を探索するヒューリスティックアルゴリズムを提案し、論文投稿を行った。 さらに、提案手法を大規模化するにあたってボトルネックの一つとなる単語ベクトルの容量削減を行うために、ニューラルネットワークを用いた量子化による合成的コーディング法を提案した。より具体的には、Gumbel-softmax法を応用し離散的なコードの学習を連続値の問題へ緩和することにより、コードと辞書(基底ベクトル)を両方同時に最適化するものである。本手法は、最終的な機械翻訳の精度を落とすことなく、単語ベクトルの容量を90%以上削減できることが示された。本手法に関する研究は、言語処理学会年次大会において最優秀賞を受賞し、深層学習に関するトップ国際会議であるInternational Conference on Learning Representation (ICLR)へ採択された。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
1: 当初の計画以上に進展している
理由
本研究課題の目標を達成する基盤的な枠組みは既に開発・評価が完了しており、本分野における著名な国際論文誌での発表も為され、順調に成果が得られていると考える。加えて、本年度は手法全体の更なる完成度・実用性の向上を目指し各要素技術の改良を目標としたが、それぞれ有用な成果が得られ、学会等で高い評価を得ている。特に、単語ベクトルの圧縮に関しては当初想定していなかった興味深い成果であり、本研究課題のみならず深層学習分野全体に大きく貢献できる技術が得られたと考える。
|
今後の研究の推進方策 |
本研究課題の最終年度となるH30年度は、提案手法の各技術要素をさらに改良し全体としての完成度を高めると同時に、大規模データへ本手法を適用し、研究全体の成果及び知見をまとめる。 (1) ネットワーク圧縮技術の開発と実装:深層学習に基づく提案手法は、単語ベクトル(分散表現)や、テキストを扱うリカレントニューラルネットワーク、画像を扱う畳み込みニューラルネットワーク等に多くのパラメータを有するため、一度にGPUのメモリ上に載せられるデータの量が厳しく制限される。これは計算速度の低下につながり、大規模データへ本手法を適用するための妨げとなっている。このため、これらのパラメータを出来るだけ圧縮することが、手法を真に実用的なものとしていくために必要不可欠である。本年度に開発した単語ベクトル圧縮手法を拡張し、一般的なニューラルネットワークを効率よく圧縮する手法の開発に取り組む。 (2) 高精度デコーダの開発:翻訳文の生成において、一般的なビームサーチによるアルゴリズムは必ずしも良好な解を生成できる保証はなく、マルチモーダルエンコーダの与える入力を活用できていない。本年度は、マルチモーダル空間の構造をより積極的に活用したビームサーチに依らない言語デコーダを開発し、高精度な翻訳文生成を目指す。 (3) 大規模データによる検証:開発した要素技術を統合して完成度を高めた提案手法を大規模なデータに適用し、得られる結果や知見についてまとめる。
|