• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2021 Fiscal Year Annual Research Report

方向別 LSTM の共学習による半教師あり all-words WSD

Research Project

Project/Area Number 19K12093
Research InstitutionIbaraki University

Principal Investigator

新納 浩幸  茨城大学, 理工学研究科(工学野), 教授 (10250987)

Project Period (FY) 2019-04-01 – 2022-03-31
Keywordsall-words WSD / BERT / Masked Language Model / 半教師あり学習 / Co-training
Outline of Annual Research Achievements

本研究は all-words WSD を系列ラベリング問題として定式化し,順方向 LSTM(Long-Short Term Memory) と逆方向 LSTM の共学習 (以下 Co-training)による半教師あり学習を行うことで,少量のラベル付きデータと大量のラベルなしデータから高精度な all-words WSD システムを構築する手法を確立することを目的とした.
本研究が採択された後,2018 年末に Google が発表した BERT により,本研究を含む多くの自然言語処理研究が方向転換を余儀なくされている.従来の LSTM が BERT によって完全に凌駕されたからである.本研究についても,本質的には BERT により実現されている.そのため本研究課題は BERT の技術調査と all-words WSD と BERT との関連を中心に研究を進めてきた.昨年度は BERT を実際に all-words WSD として利用するための手法,及びその手法を用いた他のタスクへの応用に関して研究を進めた.all-words WSD に関しては HuggingFace から提供される BertForSequenceClassification というモデルを使えば,容易に実現できることが判明し,いくつかのモデルを構築した.ただし BERT は巨大なモデルであるため,その学習時間と推論時間が膨大になるという問題点があることも判明した.そこで BERT を領域特化型にすることで学習時間と推論時間を削減する研究も合わせて行った.
本研究課題の研究実績としては,本年度は BERT 関連の研究を国際会議と研究会において計10件の発表を行った.

  • Research Products

    (11 results)

All 2022 2021

All Presentation (10 results) (of which Int'l Joint Research: 3 results) Book (1 results)

  • [Presentation] BERT の転移学習とMis-leading データの削除による識別精度の改善2022

    • Author(s)
      岩本昇太, 新納浩幸
    • Organizer
      第28回言語処理学会年次大会, PT4-13
  • [Presentation] キーワード付与による画像キャプション生成2022

    • Author(s)
      木村文飛, 新納浩幸
    • Organizer
      第28回言語処理学会年次大会, PT3-10
  • [Presentation] BERT の領域適応における複合語の語彙拡張2022

    • Author(s)
      田中裕隆, 新納浩幸
    • Organizer
      第28回言語処理学会年次大会, PT2-8
  • [Presentation] Construction and Evaluation of Japanese Sentence-BERT Models2021

    • Author(s)
      Naoki Shibayama, Hiroyuki Shinnou
    • Organizer
      PACLIC-2021
    • Int'l Joint Research
  • [Presentation] Application of Mix-Up Method in Document Classification Task using BERT2021

    • Author(s)
      Naoki Kikuta, Hiroyuki Shinnou
    • Organizer
      RANLP-2021
    • Int'l Joint Research
  • [Presentation] Domain-Specific Japanese ELECTRA Model Using a Small Corpus2021

    • Author(s)
      Youki Itoh, Hiroyuki Shinnou
    • Organizer
      RANLP-2021
    • Int'l Joint Research
  • [Presentation] 簡易小型化BERTを利用した日本語構文解析2021

    • Author(s)
      河野慎司, 新納浩幸
    • Organizer
      情報処理学会自然言語処理研究会, NL-251-20
  • [Presentation] 複数のBERTモデルを利用した Data Augmentation2021

    • Author(s)
      高萩恭介, 新納浩幸
    • Organizer
      情報処理学会自然言語処理研究会, NL-250-4
  • [Presentation] 日本語 SentenceBERT の構築とその評価2021

    • Author(s)
      芝山直希, 新納浩幸
    • Organizer
      情報処理学会自然言語処理研究会, NL-249-7
  • [Presentation] Faster-RCNNを用いた one-click supervision2021

    • Author(s)
      平野友基, 新納浩幸
    • Organizer
      情報処理学会NL研・CVIM研・PRMU研の合同研究会
  • [Book] PyTorch自然言語処理プログラミング word2vec/LSTM/seq2seq/BERTで日本語テキスト解析!2021

    • Author(s)
      新納 浩幸
    • Total Pages
      240
    • Publisher
      インプレス
    • ISBN
      9784295011132

URL: 

Published: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi