• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2021 年度 実績報告書

ニューラル言語モデルからの文法の抽出に関する研究

研究課題

研究課題/領域番号 20K19877
研究機関国立研究開発法人産業技術総合研究所

研究代表者

能地 宏  国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 研究員 (00782541)

研究期間 (年度) 2020-04-01 – 2022-03-31
キーワード自然言語処理 / 言語モデル / 構文解析 / RNNG
研究実績の概要

自然言語処理に対するニューラルネットワークに基づくモデルとして、LSTMやTransformerなどの言語を系列として扱うモデルの有用性が高く示されているものの、言語のもつ階層構造を陽にモデル化していないことから、言語モデルとしての限界も指摘されている。本研究の目的はもともと、言語のもつ統語構造の教師なし学習を可能とするモデルを構築することで、より正確な統語構造の認識を可能にする言語モデルを実現することであった。その結果、研究期間中には、最終的な教師なし学習までは実現することができなかったものの、統語構造を扱う言語モデルに対する新しい学習法、及び推論法の確立を行うことができ、本目的に対して非常に重要かつ大きな貢献を行うことができた。具体的に、本研究の一番の成果は、リカレントニューラルネットワークグラマー(RNNG)と呼ばれる、統語構造のニューラルネットワークに基づく生成モデルに対して、新しく非常に効率的な学習法を提案し、論文発表を行い、ソフトウェアの公開を行なった点である。既存の実装と比較して、学習時に6倍程度以上の高速化を実現することができた。この成果はRNNGモデルを様々な応用に適用する可能性を押し広げるものである。またより広く、構造を陽に扱うモデルに対してミニバッチの新しい構成法に基づく効率的な学習を行う指針を示したとも言える。このような点が評価され、本成果は第27回言語処理学会年次大会で最優秀賞を受賞した他、最難関国際会議のACLに論文が採択された。2年度は、RNNGに関する研究をさらに推し進め、RNNGが統語構造を正しく認識するために必要なモデルに与えるアノテーションの量について検討を行なった。その結果、既存の教師データの全ての統語構造を与えるのは、最適ではなく、長い依存構造を正確に捉えるために一部の構造のみを与えた方が逆に性能が向上する、という点を明らかにした。

  • 研究成果

    (5件)

すべて 2021 その他

すべて 雑誌論文 (1件) (うち査読あり 1件、 オープンアクセス 1件) 学会発表 (3件) 備考 (1件)

  • [雑誌論文] Effective Batching for Recurrent Neural Network Grammars2021

    • 著者名/発表者名
      Noji Hiroshi、Oseki Yohei
    • 雑誌名

      Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021

      巻: 1 ページ: 4340,4352

    • DOI

      10.18653/v1/2021.findings-acl.380

    • 査読あり / オープンアクセス
  • [学会発表] 再帰的ニューラルネットワーク文法による人間の文処理のモデリング2021

    • 著者名/発表者名
      吉田遼, 能地宏, 大関洋平
    • 学会等名
      言語処理学会第27回年次大会
  • [学会発表] 依存構造から句構造への変換による多言語モデリングに向けて2021

    • 著者名/発表者名
      神藤駿介, 能地宏, 宮尾祐介
    • 学会等名
      言語処理学会第27回年次大会
  • [学会発表] Recurrent neural network grammar の並列化2021

    • 著者名/発表者名
      能地宏, 大関洋平
    • 学会等名
      言語処理学会第27回年次大会
  • [備考] rnng-pytorch

    • URL

      https://github.com/aistairc/rnng-pytorch

URL: 

公開日: 2022-12-28  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi