自然言語の数理的表現を獲得する研究の重要課題として、自然言語処理の複数タスクの関連性と階層性に着目した、階層的マルチタスク学習モデルの研究を行った。従来の深層学習モデルの研究では、自然言語処理の各タスク専用のモデルを個別に開発する、もしくは非常に類似したタスクを同時に学習するモデルを開発することが多かった。しかし本研究では、従来の自然言語処理のパイプライン処理に着目し、基礎的なタスクから応用的なタスクに徐々に移行する階層的なマルチタスク学習モデルを開発した。これにより、5つの異なるタスクの学習を単一モデルにて実現し、それらの相互作用により各タスクの精度向上を達成した。 次に、本研究の階層的学習を行うにあたり、基礎タスク、特に構文解析のタスクの結果が必ずしも上位タスク・応用タスクに対して最適ではない可能性に着目した。つまり、特定のコーパスで学習された構文解析器の出力が、あらゆるタスク・ドメインにおいて最適であるとは限らないという問題点である。この問題点を解決するため、本研究の階層的マルチタスクモデルを拡張し、応用タスク、特に機械翻訳に特化した構文解析器の学習を可能にするモデルを開発した。これにより、従来の人手によって定義された構文を学習する構文解析器では捉えられなかった、タスク・データ特有の文構造をタスク指向に学習することを可能にした。この研究は、従来のパイプライン処理における誤りの伝播、ドメインの不一致などといった限界を打破する研究の一助となるものである、有用性が高いと言える。 本研究で行った上記2点の研究は成果は、自然言語処理の分野におけるトップカンファレンスの一つである国際会議EMNLPにおいて発表されている。
|