2022 Fiscal Year Final Research Report
Towards Roubust Coreference Resolution by using Global Information of Entities
Project/Area Number |
21K17801
|
Research Category |
Grant-in-Aid for Early-Career Scientists
|
Allocation Type | Multi-year Fund |
Review Section |
Basic Section 61030:Intelligent informatics-related
|
Research Institution | Nara Institute of Science and Technology (2022) Tokyo Institute of Technology (2021) |
Principal Investigator |
Kamigaito Hidetaka 奈良先端科学技術大学院大学, 先端科学技術研究科, 准教授 (40817649)
|
Project Period (FY) |
2021-04-01 – 2023-03-31
|
Keywords | 知識グラフ / 知識グラフの補完 / 知識グラフの埋め込み / 負例サンプリング損失 / 視覚と言語の融合タスク / 視覚と言語の融合モデル / 事前学習済み言語モデル / BERT |
Outline of Final Research Achievements |
To support the recently appeared coreference analyzers that can utilize global information using pre-trained language models by using knowledge graphs, we conducted a theoretical analysis of learning completions for knowledge graphs. Based on the analysis, we also proposed techniques to improve completion performance on sparse knowledge graphs. In response to the expansion of pre-trained language models into the area of vision and language fields, we created a task and a dataset to verify the knowledge of entities in the models from both vision and language perspectives, and also to verify which model structure is suitable for the task. We also tested whether entities can be used to control natural language generation models.
|
Free Research Field |
自然言語処理
|
Academic Significance and Societal Importance of the Research Achievements |
本研究では事前学習済み言語モデルに基づいた共参照解析手法を支援することを目的に,知識グラフの補完性能の向上及び視覚と画像の融合分野において事前学習済み言語モデルに含まれている知識についてを検証するためのタスク及びデータセットを提案し,実際の検証を行なった.これらの成果は事前学習済み言語モデルの学習過程では通常明示的に与えられることがない知識を扱うものであり,昨今の事前学習済み言語モデルの急速な発展の後にも利用価値を持つことが期待できる.特に視覚と画像の融合分野においてはテキストの生成および画像の生成の両面において性能向上の観点から重要な研究成果であり,共参照解析に限定されない活用が期待される.
|