• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

Exploring Deep Neural Networks for Temporal Information Extraction

公募研究

研究領域時間生成学―時を生み出すこころの仕組み
研究課題/領域番号 19H05318
研究種目

新学術領域研究(研究領域提案型)

配分区分補助金
審査区分 複合領域
研究機関京都大学

研究代表者

程 飛  京都大学, 情報学研究科, 特定助教 (70801570)

研究期間 (年度) 2019-04-01 – 2021-03-31
研究課題ステータス 完了 (2020年度)
配分額 *注記
3,380千円 (直接経費: 2,600千円、間接経費: 780千円)
2020年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2019年度: 2,080千円 (直接経費: 1,600千円、間接経費: 480千円)
キーワードInformation extraction / Neural networks / Language processing / Temporal Information / Natural Language / Deep Learning / Information Extraction / Relation Extraction / Temporal Relation / Neural Networks / Multilingual Data
研究開始時の研究の概要

Temporal relation classification (TRC) the core task in Temporal Information Extraction (TIE), which aims to identify a temporal order (before, after, simultaneous, during, etc.) between two entities (event, time expression or Document Creation Time, DCT). TRC has great potential to create many practical applications, such as extracting event timeline from news articles. We aim to explore deep neural networks for the TRC task from three different aspect: 1) neural network structure 2) task setting 3) multilingual corpora.

研究実績の概要

According to our research plan, we developed neural network models to improve state-of-the-art temporal information extraction (TRC) performance. We explored three valid research directions:
1) Neural network classification models can be improved in several aspects. Deeper network layers, attention mechanism and integrating more features are proved to be effective in many tasks. We first introduced latest deep layer transfer learning models (i.e. BERT) into the TRC tasks. The empirical results showed the significant improvements over the existing shallow neural models.
2) Existing research of TRC treats E-E, E-T, and E-D as three separate TLINK classification targets. We experimented training all three TLINK types in a multi-task learning scenario, which effectively exploy the use of all the data and significantly improve the baseline.
3) ‘Multilingual’ is an important topic in NLP. Many high-quality Japanese TRC corpora have been constructed in recent years, such as BCCWJ-Timebank. We performed the additional experiments to evaluate the feasibility of our models for the Japanese BCCWJ-Timebank. Our model outperforms the existing SOTA models by a large margin.
In summary, we manage to develop the SOTA performance TRC models. The paper is accepted by the top international conference for natural language processing: EMNLP (findings volume). We also explored 'end-to-end information extraction' and 'temporal question-answering' tasks, which is helpful to understanding the TRC task from different aspects. These two papers are accepted by EMNLP-findings and ACL-RepL4NLP.

現在までの達成度 (段落)

令和2年度が最終年度であるため、記入しない。

今後の研究の推進方策

令和2年度が最終年度であるため、記入しない。

報告書

(2件)
  • 2020 実績報告書
  • 2019 実績報告書
  • 研究成果

    (7件)

すべて 2020 2019 その他

すべて 雑誌論文 (3件) (うち国際共著 3件、 査読あり 3件) 学会発表 (2件) 備考 (2件)

  • [雑誌論文] Dynamically Updating Event Representations for Temporal Relation Classification with Multi-category Learning2020

    • 著者名/発表者名
      Cheng Fei、Asahara Masayuki、Kobayashi Ichiro、Kurohashi Sadao
    • 雑誌名

      Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing

      巻: Findings volume ページ: 1352-1357

    • DOI

      10.18653/v1/2020.findings-emnlp.121

    • 関連する報告書
      2020 実績報告書
    • 査読あり / 国際共著
  • [雑誌論文] Adversarial Training for Commonsense Inference2020

    • 著者名/発表者名
      Lis Pereira, Xiaodong Liu, Fei Cheng, Masayuki Asahara, Ichiro Kobayashi
    • 雑誌名

      Proceedings of the 5th Workshop on Representation Learning for NLP

      巻: ACL-RepL4NLP ページ: 55-60

    • DOI

      10.18653/v1/2020.repl4nlp-1.8

    • 関連する報告書
      2020 実績報告書
    • 査読あり / 国際共著
  • [雑誌論文] Minimize Exposure Bias of Seq2Seq Models in Joint Entity and Relation Extraction2020

    • 著者名/発表者名
      Ranran Haoran Zhang, Qianying Liu, Aysa Xuemo Fan, Heng Ji, Daojian Zeng, Fei Cheng, Daisuke Kawahara, Sadao Kurohashi
    • 雑誌名

      Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing

      巻: Findings volume ページ: 236-246

    • DOI

      10.18653/v1/2020.findings-emnlp.23

    • 関連する報告書
      2020 実績報告書
    • 査読あり / 国際共著
  • [学会発表] Dependency Enhanced Contextual Representations forJapanese Temporal Relation Classification2019

    • 著者名/発表者名
      Chenjing Geng, Lis Kanashiro Pereira, Fei Cheng, Masayuki Asahara, Ichiro Kobayashi
    • 学会等名
      言語処理学会2020
    • 関連する報告書
      2019 実績報告書
  • [学会発表] 依存関係と文脈表現を用いた日本語時間関係識別2019

    • 著者名/発表者名
      Chenjing Geng, Fei Cheng, Lis Kanashiro Pereira, Masayuki Asahara, Ichiro Kobayashi
    • 学会等名
      人工知能学会2020
    • 関連する報告書
      2019 実績報告書
  • [備考] Dynamically Updating Event Representations.

    • URL

      https://github.com/racerandom/NeuralTime

    • 関連する報告書
      2020 実績報告書
  • [備考] Minimize Exposure Bias of Seq2Seq Models.

    • URL

      https://github.com/WindChimeRan/OpenJERE

    • 関連する報告書
      2020 実績報告書

URL: 

公開日: 2019-04-18   更新日: 2021-12-27  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi