• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Generalization of LiNGAM for confounding

Research Project

Project/Area Number 22K11931
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 60030:Statistical science-related
Research InstitutionOsaka University

Principal Investigator

鈴木 譲  大阪大学, 大学院基礎工学研究科, 教授 (50216397)

Project Period (FY) 2022-04-01 – 2026-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥4,160,000 (Direct Cost: ¥3,200,000、Indirect Cost: ¥960,000)
Fiscal Year 2025: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2024: ¥1,040,000 (Direct Cost: ¥800,000、Indirect Cost: ¥240,000)
Fiscal Year 2023: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2022: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Keywords相互情報量 / LiNGAM / 因果推論 / 独立性検定
Outline of Research at the Start

本研究では、清水昌平氏が考案したLiNGAM(Linear NonGaussian Acyclic Model)とよばれる因果推論の枠組みについて検討する。LiNGAMは、雑音が複数変数に影響をあたえる、いわゆる交絡が全変数にわたって存在しないことが前提となっていて、実用上の障害になっている。本研究では、雑音の間の相互情報量を交絡の大きさとみなし、それを最小とするモデル化を提唱する(従来は相互情報量が0であると仮定)。そして、そのような一般的な定式化の解を得るために、最短経路問題を用いた効率の良い解法を提案する。さらに、連続データに関する相互情報量推定方法(高次元に対応するもの)を提案する。

Outline of Annual Research Achievements

本研究では、拡張されたLiNGAMの開発と効率的な処理方法の構築に取り組み、以下の成果を得ることができた。
まず、LiNGAMの枠組みを拡張し、交絡の存在にも適用可能な手法を提案した。従来のLiNGAMでは、相互情報量が0となる変数の順序を仮定していたが、本研究では交絡の大きさを相互情報量とみなし、その最小値を求めるモデル化を行った。また、最短経路問題を用いた効率的な解法を開発した。これにより、実データにおいても交絡の影響を考慮しつつ因果関係を推定することが可能となった。さらに、連続データに関する相互情報量推定方法についても検討した。既存の方法を検証し、局所的な相互情報量を別々に計算し、その和を求める手法を提案した。これにより、高次元データにおける相互情報量推定の精度と効率を向上させることができた。この内容は、2024年7月の International Symposium on Information Thery (情報理論に関する国際シンポジウム)で発表することが決定している。
この他、LiNGAMが関数データに適用できるがわかった。この結果の一部は前年度の国際学会で発表したが、それを若干拡張した結果をジャーナルにも掲載することができた。研究の成果として、"Yang-Suzuki 2024"および"Suzuki-Yang 2024"の論文が出版された。
これらの論文は、研究の新たな枠組みと手法を提案し、その有用性と革新性が国際学会や学術コミュニティで高く評価された。拡張されたLiNGAMの開発と効率的な処理方法の構築において、初年度から重要な成果を達成し、国際的な評価を受けることができた。今後は、これらの成果を基にさらなる研究の展開を進めていきたい。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

理由
まず、研究の目的である拡張されたLiNGAMの開発について、重要な成果を達成した。交絡の存在においても有効な因果推論手法としてのLiNGAMの拡張に成功し、その新たなモデル化と解法を提案した。さらに、最短経路問題を利用した効率的な処理方法を開発した。これにより、実データにおける因果関係の解明や推定がより正確かつ効率的に行えるようになった。また、連続データに関する相互情報量推定方法についての研究も順調に進展している。既存の手法を検証し、新たな手法の提案を行った。局所的な相互情報量を別々に計算し、それらの和を取る手法を開発したことで、高次元データにおける相互情報量推定の精度と効率を飛躍的に向上させることができた。研究の成果として、上記の2論文が国際的な評価を受け、採用された。これらの論文の採用は、拡張されたLiNGAMの研究成果が国際的なコミュニティから高い評価を受けていることを示している。

Strategy for Future Research Activity

拡張されたLiNGAMのモデル化や解法の応用範囲をさらに広げていきたい。交絡の存在においても有効な因果推論手法としてのLiNGAMの優位性を確立し、実世界のデータに対して適用可能なツールとしての信頼性を高めていくことが重要である。
現在は、非線形統計モデルに因果探索を適用する際の実現方法に関して、back-fittingを用いた最適化を用いた方法を構築している。
今後は、条件付き独立性の検定や変数間の順序同定において、関数の具体的な形を特定せずに高い精度を実現するための手法を開発していきたい。これにより、より複雑な因果関係を捉えることができるだけでなく、実世界のデータに対しても適用可能な柔軟性を持ったモデリング手法の構築を目指すことが可能となる。そして、離散値を取る変数に対するモデリング手法についても研究を進めたい。変数と雑音の直交性を定式化し、2値だけでなく3値以上を許容する一般的な場合においても有効な手法を提案したい。変数の種類の多様性に対応できるモデル構築手法の開発により、実データの解析や応用領域での有用性を向上させていきたい。
現在は、有名ジャーナルに主要な結果を含む論文を投稿中である。この採録が決定すれば、本研究は完成したと言える。

Report

(2 results)
  • 2023 Research-status Report
  • 2022 Research-status Report
  • Research Products

    (17 results)

All 2024 2023 2022 2021 Other

All Int'l Joint Research (1 results) Journal Article (8 results) (of which Int'l Joint Research: 4 results,  Peer Reviewed: 8 results,  Open Access: 3 results) Presentation (3 results) (of which Int'l Joint Research: 3 results) Book (5 results)

  • [Int'l Joint Research] Chulalongkorn University/Mahidol University(タイ)

    • Related Report
      2023 Research-status Report
  • [Journal Article] Dropout drops double descent2024

    • Author(s)
      Yang Tian-Le、Suzuki Joe
    • Journal Title

      Japanese Journal of Statistics and Data Science

      Volume: 7 Issue: 2 Pages: 1-1

    • DOI

      10.1007/s42081-024-00242-5

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] Functional linear non-Gaussian acyclic model for causal discovery2024

    • Author(s)
      Yang Tian-Le、Lee Kuang-Yao、Zhang Kun、Suzuki Joe
    • Journal Title

      Behaviormetrika

      Volume: 51 Issue: 2 Pages: 1-1

    • DOI

      10.1007/s41237-024-00226-5

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] Forest construction of Gaussian and discrete variables with the application of Watanabe Bayesian Information Criterion2024

    • Author(s)
      Islam Ashraful、Suzuki Joe
    • Journal Title

      Behaviormetrika

      Volume: 51 Issue: 2 Pages: 1-1

    • DOI

      10.1007/s41237-024-00227-4

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] Newton-Type Methods with the Proximal Gradient Step for Sparse Estimation2024

    • Author(s)
      Shimmura Ryosuke、Suzuki Joe
    • Journal Title

      Operations Research Forum

      Volume: 5 Issue: 2 Pages: 1-1

    • DOI

      10.1007/s43069-024-00307-x

    • Related Report
      2023 Research-status Report
    • Peer Reviewed
  • [Journal Article] Estimation of a Simple Structure in a Multidimensional IRT Model Using Structure Regularization2023

    • Author(s)
      Shimmura Ryosuke、Suzuki Joe
    • Journal Title

      Entropy

      Volume: 26 Issue: 1 Pages: 44-44

    • DOI

      10.3390/e26010044

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access
  • [Journal Article] Extending Hilbert?Schmidt Independence Criterion for Testing Conditional Independence2023

    • Author(s)
      Zhang Bingyuan、Suzuki Joe
    • Journal Title

      Entropy

      Volume: 25 Issue: 3 Pages: 425-425

    • DOI

      10.3390/e25030425

    • Related Report
      2022 Research-status Report
    • Peer Reviewed / Open Access
  • [Journal Article] Converting ADMM to a proximal gradient for efficient sparse estimation2022

    • Author(s)
      Shimmura Ryosuke、Suzuki Joe
    • Journal Title

      Japanese Journal of Statistics and Data Science

      Volume: 5 Issue: 2 Pages: 725-745

    • DOI

      10.1007/s42081-022-00150-6

    • Related Report
      2022 Research-status Report
    • Peer Reviewed
  • [Journal Article] Efficient Proximal Gradient Algorithms for Joint Graphical Lasso2021

    • Author(s)
      Chen Jie、Shimmura Ryosuke、Suzuki Joe
    • Journal Title

      Entropy

      Volume: 23 Issue: 12 Pages: 1623-1623

    • DOI

      10.3390/e23121623

    • Related Report
      2022 Research-status Report
    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Presentation] Dropout Diminishes Double Descent Similar to Ridge2024

    • Author(s)
      Tianle Yang, Joe Suzuki
    • Organizer
      International Workshop on Deep Learning and Kernel Machines, Leuven
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] Latent Pushforward Measure for Gaussian Process2024

    • Author(s)
      Yasuhiro Sekiya, Joe Suzuki
    • Organizer
      International Workshop on Deep Learning and Kernel Machines, Leuven
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] Extension of LiNGAM to functional data2023

    • Author(s)
      Tianle Yang and Joe Suzuki
    • Organizer
      The 6th International Conference on Econometrics and Statistics (EcoSta 2023), Tokyo
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Book] WAIC and WBIC with R Stan: 100 Exercises for Building Logic2023

    • Author(s)
      Suzuki, Joe
    • Total Pages
      239
    • Publisher
      Springer
    • ISBN
      9789819938377
    • Related Report
      2023 Research-status Report
  • [Book] WAIC and WBIC with Python Stan: 100 Exercises for Building Logic2023

    • Author(s)
      Suzuki, Joe
    • Total Pages
      242
    • Publisher
      Springer
    • ISBN
      9789819938414
    • Related Report
      2023 Research-status Report
  • [Book] 渡辺澄夫ベイズ理論100問 with R/Stan2023

    • Author(s)
      鈴木 讓
    • Total Pages
      238
    • Publisher
      共立出版
    • ISBN
      9784320125148
    • Related Report
      2023 Research-status Report
  • [Book] Kernel Methods for Machine Learning with Math and Python2022

    • Author(s)
      Joe Suzuki
    • Total Pages
      208
    • Publisher
      Springer
    • ISBN
      9789811904004
    • Related Report
      2022 Research-status Report
  • [Book] Kernel Methods for Machine Learning with Math and R2022

    • Author(s)
      Joe Suzuki
    • Total Pages
      196
    • Publisher
      Springer
    • ISBN
      9789811903977
    • Related Report
      2022 Research-status Report

URL: 

Published: 2022-04-19   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi