研究課題
基盤研究(C)
一般に単語は複数の語義(意味)を持つ.入力文内の各単語にその文における語義を与えるタスクが all-words WSD である.本研究ではこのタスクを解くモデルを双方向 LSTM に設定し,Co-training という半教師あり学習を用いてモデルの学習を行った.LSTM の後継モデルである BERT を利用することで本タスクが解決できるため,BERT の利用法を調査し,本タスクも含め様々なタスクに BERT を適用する方法を示した.
自然言語処理
自然言語処理の各種タスクは機械学習を利用することで解決できる.しかし機械学習で必要とされる訓練データの構築コストが大きいという問題がある.本研究のタスクの all-words WSD はその問題が特に顕著である.BERT は事前学習済みモデルであり,BERT を利用することで少量の訓練データから高精度のモデルを学習できる.研究課題の含め,各種タスクに BERT の利用する方法を示すことができた.