• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

多ドメイン関連性データのグラフ埋め込みによる表現学習

Research Project

Project/Area Number 20H04148
Research InstitutionKyoto University

Principal Investigator

下平 英寿  京都大学, 情報学研究科, 教授 (00290867)

Project Period (FY) 2020-04-01 – 2023-03-31
Keywords多変量解析 / 次元削減 / 分散表現 / 表現学習 / グラフ埋め込み / 自然言語処理 / ニューラルネットワーク / 加法構成性
Outline of Annual Research Achievements

画像,タグ,文書等の様々なドメインのマルチモーダルデータから関連性を考慮したグラフ埋め込みによって情報統合し共通空間で表現する新しい柔軟な多変量解析の方法論を提案・発展させる.線形変換だけでなくニューラルネットによる非線形変換の次元削減によりグラフ構造を保存する埋め込みの最適化をおこなう.画像認識や自然言語処理などの大規模データに取り組み,その経験を理論にフィードバックすることによって,埋め込んだベクトルの加減算など共通空間の演算による推論の枠組みと,その演算の汎化性能に適した埋め込み空間や類似度関数のモデル選択の方法論の発展を目指す.

本年度は次の成果が得られた.
(1) 加法構成性などの性質を一般化するための枠組みとして,AND,OR,NOTなど論理演算について,BERT等の言語モデルについて追加実験を行い有効性を確認した.(2)単語のコーパス分布を事前分布,文脈における分布を事後分布と考えたときの情報ゲインが単語ベクトルのノルムの2乗に相当することを,指数型分布族の観点で示した.また,大規模コーパスにおける検証や,キーワード抽出等の下流タスクにおける数値実験を行い有効性を確認した.(3)マルチタスク転移学習における表現学習について検討した.(4)文の意味の違いを測る指標として単語ベクトル間の距離をコストとする最適輸送距離を用いる手法があるが,これにBERTのself-attention matrixの違いも加味することで,文構造を考慮した最適輸送距離の実験を行い有効性を確認した.

Research Progress Status

令和4年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和4年度が最終年度であるため、記入しない。

  • Research Products

    (3 results)

All 2023 2022

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (2 results)

  • [Journal Article] Selective inference after feature selection via multiscale bootstrap2023

    • Author(s)
      Yoshikazu Terada, Hidetoshi Shimodaira
    • Journal Title

      Annals of the Institute of Statistical Mathematics

      Volume: 75 Pages: 99-125

    • DOI

      10.1007/s10463-022-00838-2

    • Peer Reviewed
  • [Presentation] 単語ベクトルの長さはKL情報量で解釈可能な意味の強さを表す2022

    • Author(s)
      大山百々勢, 横井祥, 下平英寿
    • Organizer
      第25回情報論的学習理論ワークショップ (IBIS2022)
  • [Presentation] Heterogeneous-featureを用いたマルチタスク転移学習2022

    • Author(s)
      Runsen Li, 奥野彰文, 下平英寿
    • Organizer
      第25回情報論的学習理論ワークショップ (IBIS2022)

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi