研究項目1「議論マイニングに必要な常識的知識の獲得」では、単語の意味に関する常識的知識を大規模言語モデルから自動獲得する研究をまとめ、国際会議で発表した (Mizuki+ EACL 2023)。 研究項目2「SNS上のテキストの意味解析技術の確立」においては、大規模言語モデル(LLM)が強力になった現在でも、アノテーション済みコーパスを用いた従来からの自然言語処理が使われている。我々は、このアノテーションを省コスト化し、アノテーション位置にノイズを含んだ場合に下流タスクにどれくらいの影響があるかを調査した。その結果、アノテーションの有無のみが重要で、位置についてはノイズに頑健であることを明らかにした (Andrade+ ACL 2023)。 研究項目3「自動獲得した常識的知識に基づいて推論するアーキテクチャの確立」では、LLMに蓄積された常識的知識を活用する手法が主流になりつつある。ただし、単にLLMにプロンプトで問いかけるだけでは精度が不十分で、タスクの訓練データに基づくファインチューニングが精度面で有利である。我々は、タスクの訓練データをLLMで自動的に生成させるデータ拡張の新手法を提案し、その効果を実証した (Wang+ *SEM 2023)。また、LLMの推論結果の確信度を推定する新手法を提案した (Yoshikawa+ EACL 2023)。さらに、LLMの推論結果が学習時に与えられた知識に基づくものであるかを判定する手法を考案し、その研究発表が第30回言語処理学会若手奨励賞 (綿+ 2024) を受賞した。 研究項目4「議論マイニングによる実社会の課題の解決」では、意見表明において評価対象やその極性を明確にするだけでなく、評価極性が暗黙的に言及される文からも、マイニング結果およびその解釈の理由をユーザに説明するためのデータセットおよび手法を開発した。
|