• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2023 年度 実績報告書

漸進的な知識の拡張を行う汎用自然言語生成モデルの研究

研究課題

研究課題/領域番号 23H03458
配分区分補助金
研究機関奈良先端科学技術大学院大学

研究代表者

上垣外 英剛  奈良先端科学技術大学院大学, 先端科学技術研究科, 准教授 (40817649)

研究分担者 林 克彦  北海道大学, 情報科学研究院, 准教授 (50725794)
大内 啓樹  奈良先端科学技術大学院大学, 先端科学技術研究科, 助教 (70825463)
渡辺 太郎  奈良先端科学技術大学院大学, 先端科学技術研究科, 教授 (90395038)
研究期間 (年度) 2023-04-01 – 2026-03-31
キーワード大規模言語モデル / Large Language Model / LLM / 画像と言語の融合 / Vision and Language / 知識グラフ / Knowledge Graph / Knowledge Base
研究実績の概要

ChatGPTの登場及びGPT-4-Visionの登場により、巨大言語モデル(LLM)や画像をも入力に用いることが可能なLarge-scale Vision Language Model (LVLM)の利用が一般的となったため、本研究課題の一年目には、将来の発展を見据えてLLMやLVLMを含む、事前学習済み言語モデル(PLM)における知識の利用法及び推論能力の検証を行った。PLMにおける知識の推論能力を測るために漏洩が起きにくい知識グラフの推論データを作成する手法を提案し、PLMとそれ以前の手法との比較を行いPLMにおける性能向上の多くの部分が事前学習時に獲得した知識を流用していることが判明した一方、事前学習により未知の知識を推論により導出可能なことについても確認した。この結果を自然言語処理研究会で発表し優秀賞を受賞した。また同内容を発展させたものが自然言語処理分野のトップ国際会議であるNAACLに採択された。そして知識グラフ推論用のモデルを過学習を避けて学習するための手法も提案し、その内容が国際会議IJCNLP-AACLに採択された。さらにLLMにおいてテンプレートやデコード法の差異による性能変化が生じることを明らかにした研究を自然言語処理研究会で発表し優秀賞を受賞した。その上、画像に関連した知識をPLMが上手く保持できているかの検証についても行い、画像と自然言語の対応付けに課題があることを明らかにした研究が自然言語処理分野のトップ国際会議であるACLに採択された。この研究を発展させ、特に自然言語から獲得された知識を利用する能力を測るために、芸術分野の画像を対象にその説明を行うタスクを提案し、その内容を言語処理学会にて発表した。また、この内容を発展させたものを、現在ACL2024に投稿している。

現在までの達成度 (区分)
現在までの達成度 (区分)

2: おおむね順調に進展している

理由

本研究提案の最終的な目的は大規模言語モデル(LLM)を利用する上で解釈性及び制御性の向上とタスク解決性能の向上の両立を行うことである。この目的のためにLLMが保持する記憶を維持しつつ、対象タスクに応じて必要な知識をデータストア経由で外挿し、さらに解釈性を高めるために外挿された知識をも考慮しつつ、新しい知識を推論により導出し、その結果を再度データストアに格納することを考えている。初年度には幸にしてChatGPTの出現とそれに伴うLLMの利用加速に伴い、Retrieval Augmented Generation (RAG)という枠組みが一般的に用いられるようになった。これは本研究が目指すデータストア経由での知識の外挿を行う上で適する枠組みである。従って、初年度はこの枠組みに基づいた研究提案の目標実現を念頭に、この手法への知識グラフの適用を行うために、LLMを含む事前学習済み言語モデルを用いた場合の知識グラフの補完性能の検証及びより効果的な知識グラフの補完の学習法を検証し、実際に事前学習済み言語モデルを用いることで事前学習時には観測していない知識についても推論によって補完できることを明らかにした。また、LLMの著しい進展を考慮に入れた上で、最終年度までには画像などの言語以外の情報が一般的な入力として扱われる可能性が高いと判断し、画像の入力を伴う場合のLLMの知識の扱いについての検証を行った。検証の結果、それを可能とするはずの既存のLarge-scale Vision Language Model (LVLM)では自然言語から獲得された知識が適切に引き継がれていないという問題が存在することが明らかとなった。以上より、事前学習済み言語モデルがデータ漏洩などを除外したとしても推論により未知の知識を獲得可能であることが判明したことから、初年度の進展は概ね順調であると判断できる。

今後の研究の推進方策

まず、初年度の研究により事前学習済み言語モデルが未知の知識を推論により獲得できることが判明したため、大規模言語モデル(LLM)上でRetrieval Augmented Generation (RAG)を用いて推論を行う際に、RAGのデータストア上に補完された知識を挿入し、実際に動作するかを検証する。LLMを用いてRAGを行う際にはその高い汎用性からin-context learningに基づいて利用することを想定している。ただし、補完された知識グラフには事実ではない情報が含まれる可能性が存在することから、利用においては知識が元のデータに存在するものか、補完されたものかを明示するためのラベルを付与し、LLMが判断する確信度に基づいて各知識を利用するようにプロンプトを調整する。そして初年度にて準備した言語と画像の融合分野(V&L)における説明生成のタスクを対象に、画像情報を伴う知識グラフを利用することで、自然言語で行った上記の検証をLarge-scale Vision Language Model (LVLM)を用いてV&Lでも同様に実施する。ただし、RAGを利用するためにはLVLMが複数の画像を扱う必要が生じるものの、既存のモデルでは一部のものしかその機能を持ち合わせていないため、場合によってはin-context learningのみならず、instruction-tuningによって複数画像を受理可能なモデルの作成も検討する。また、初年度の検証において、LVLMではLLMの知識が適切に引き継がれていない場合があることが判明しているため、LVLMを用いたRAGでは検索事例として、画像を含まない、自然言語のみの事例についてもその有用性の検証を行う。

  • 研究成果

    (11件)

すべて 2024 2023 その他

すべて 学会発表 (10件) (うち国際学会 4件) 備考 (1件)

  • [学会発表] Generating Diverse Translation with Perturbed kNN-MT2024

    • 著者名/発表者名
      Yuto Nishida
    • 学会等名
      The 2024 EACL Student Research Workshop (SRW)
    • 国際学会
  • [学会発表] Does Pre-trained Language Model Actually Infer Unseen Links in Knowledge Graph Completion2024

    • 著者名/発表者名
      Yusuke Sakai
    • 学会等名
      2024 Annual Conference of the North American Chapter of the Association for Computational Linguistics
    • 国際学会
  • [学会発表] Large-scale Vision Language Modelによる芸術作品に対する説明の生成2024

    • 著者名/発表者名
      林 和樹
    • 学会等名
      言語処理学会 第30回年次大会
  • [学会発表] Vision Language Modelが持つ画像批評能力の評価手法の提案2024

    • 著者名/発表者名
      齊藤 成輝
    • 学会等名
      言語処理学会 第30回年次大会
  • [学会発表] 大規模言語モデルにおけるタスク特有の表層表現に起因する脆弱性の調査2024

    • 著者名/発表者名
      鈴木 刀磨
    • 学会等名
      第259回 自然言語処理研究発表会
  • [学会発表] Scalar Mixing Weightsを用いた生成タスクにおける視覚と言語の情報を事前学習したモデルの分析2024

    • 著者名/発表者名
      白井 尚登
    • 学会等名
      第259回 自然言語処理研究発表会
  • [学会発表] Table and Image Generation for Investigating Knowledge of Entities in Pre-trained Vision and Language Models2023

    • 著者名/発表者名
      Hidetaka Kamigaito
    • 学会等名
      The 61st Annual Meeting of the Association for Computational Linguistics
    • 国際学会
  • [学会発表] Model-based Subsampling for Knowledge Graph Completion2023

    • 著者名/発表者名
      Xincan Feng
    • 学会等名
      The 13th International Joint Conference on Natural Language Processing and the 3rd Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics
    • 国際学会
  • [学会発表] 未知の知識に対する事前学習済み言語モデルが持つ推論能力の調査2023

    • 著者名/発表者名
      坂井 優介
    • 学会等名
      第257回 自然言語処理研究発表会
  • [学会発表] 大規模言語モデルの統一評価に向けた指示テンプレートの提案及びその評価結果の考察2023

    • 著者名/発表者名
      坂井 優介
    • 学会等名
      第258回 自然言語処理研究発表会
  • [備考] WikiTIG

    • URL

      https://github.com/kamigaito/WikiTIG

URL: 

公開日: 2024-12-25  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi