• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

ベイズ最適な性能に迫る畳み込み近似的メッセージ伝播法の創出

Research Project

Project/Area Number 21H01326
Allocation TypeSingle-year Grants
Research InstitutionToyohashi University of Technology

Principal Investigator

竹内 啓悟  豊橋技術科学大学, 工学(系)研究科(研究院), 准教授 (30549697)

Project Period (FY) 2021-04-01 – 2026-03-31
Keywords6G / 大規模MIMO / ベイズ推論 / メッセージ伝播法 / 深層学習
Outline of Annual Research Achievements

メッセージ伝播法の収束性を証明するための一般的な方法論を提案した。具体的には、収束が立案時点で原理的に自明となる長期記憶メッセージ伝播法を構築することで、メッセージ伝播法の収束性を証明した。
原理的に収束性を保証するための基本アイデアは、現在のメッセージを更新する際に、直前に計算したメッセージだけでなく、それまでに計算したメッセージをすべて利用することである。統計学の観点から、各メッセージは、観測信号が与えられたときに未知の信号を推定するための統計量とみなせる。それまでに得られたメッセージすべてを集めた統計量は、未知の信号を推定するための十分統計量となる。十分統計量をなすメッセージの集合は、反復に関する増大列であるため、各反復で適切な信号推定を行う限り、推定精度が劣化することはない。
上記のアイデアを具現化するために、メッセージ伝播法を解析するための状態発展法の一般的枠組みを利用した。状態発展法とは、信号次元と観測次元とが同じ速度で無限大に発散する大システム極限において、メッセージ伝播法の動特性を厳密に解析するための方法である。この枠組みは、2021年度に樹立した理論で、現在のメッセージを更新する際に、それまでの全メッセージを利用する長期記憶メッセージ伝播法の漸近解析を可能にする。同枠組みに含まれるすべての長期記憶メッセージ伝播法において、信号の推定誤差が漸近的にガウス分布することが証明されている。この漸近ガウス性を利用することで、現在のメッセージをベイズ最適な方法で更新することができる。
上記の枠組みを利用して従来の直交近似的メッセージ伝播法(OAMP)を拡張し、長期記憶OAMP(LM-OAMP)を提案した。各メッセージの更新にベイズ最適な方法を用いた場合に、LM-OAMPは、大システム極限で収束し、OAMPと等価であることを証明した。

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

本研究プロジェクトのテーマである「ベイズ最適な畳み込み近似的メッセージ伝播法」と題する論文は、情報理論分野のトップジャーナルであるIEEE Transactions on Information Theoryおよび同分野のトップコンファレンスである2021 IEEE International Symposium on Information Theoryで発表済みである。研究開始当初に想定していた最難関の課題は解決済みであるため、研究は新しい課題の解決に上記の研究で得られた成果を利用する方向に展開している。2022年度は、新たな研究の展開として、メッセージ伝播法の収束証明を行った。

Strategy for Future Research Activity

さらなる研究の新しい展開として、空間結合系に対する直交近似的メッセージ伝播法(OAMP)の提案を目指す。空間結合系とは、(i)通信路行列がブロック帯行列である、(ii)系の両端では信号推定が容易であるという2条件を満たすシステムである。
OAMPの提案は以下の手順で行うことを目指す。まず、2022度までに確立した長期記憶メッセージ伝播法(LM-MP)の動特性を厳密に解析するための状態発展法の一般論を空間結合系の場合に拡張する。LM-MPでは、直近で計算したメッセージだけでなく、過去全ての時点で計算したメッセージに依存して現時点のメッセージを更新する。
次に、状態発展法の一般論を用いて、軟判定直前の誤差の分布が漸近的にガウスするようにメッセージの補正項を定めることで、空間結合系に対するOAMPを導出する。さらに、提案OAMPの収束を理論的に保証することを目指す。
最後に、研究代表者が過去に確立した空間結合系の解析方法を適用して、OAMPの状態発展方程式の不動点を調べる。そのままの方程式では既存解析の枠組みに入らないため、漸近的に誤差が生じないように状態発展方程式を近似することで、既存解析の枠組みを利用する。以上の手順に従って、提案OAMPが情報理論的に最適な圧縮率を達成することの証明を目指す。

  • Research Products

    (6 results)

All 2023 2022

All Journal Article (3 results) (of which Peer Reviewed: 3 results,  Open Access: 1 results) Presentation (3 results) (of which Int'l Joint Research: 1 results)

  • [Journal Article] Deep Learning of Damped AMP Decoding Networks for Sparse Superposition Codes via Annealing2023

    • Author(s)
      YOSHIDA Toshihiro、TAKEUCHI Keigo
    • Journal Title

      IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences

      Volume: E106.A Pages: 414~421

    • DOI

      10.1587/transfun.2022TAP0009

    • Peer Reviewed
  • [Journal Article] On the Convergence of Orthogonal/Vector AMP: Long-Memory Message-Passing Strategy2022

    • Author(s)
      Takeuchi Keigo
    • Journal Title

      IEEE Transactions on Information Theory

      Volume: 68 Pages: 8121~8138

    • DOI

      10.1109/TIT.2022.3194855

    • Peer Reviewed / Open Access
  • [Journal Article] On the Convergence of Orthogonal/Vector AMP: Long-Memory Message-Passing Strategy2022

    • Author(s)
      Takeuchi Keigo
    • Journal Title

      Proc. 2022 IEEE Int. Symp. Inf. Theory

      Volume: - Pages: 1366~1371

    • DOI

      10.1109/ISIT50566.2022.9834373

    • Peer Reviewed
  • [Presentation] On the Convergence of Orthogonal/Vector AMP: Long-Memory Message-Passing Strategy2022

    • Author(s)
      Takeuchi Keigo
    • Organizer
      2022 IEEE Int. Symp. Inf. Theory
    • Int'l Joint Research
  • [Presentation] 大規模MIMOに対する畳み込み近似的メッセージ伝播復調法2022

    • Author(s)
      大内巧歩,竹内啓悟
    • Organizer
      第45回情報理論とその応用シンポジウム
  • [Presentation] 近似的メッセージ伝播法に基づく線形ビームフォーミング2022

    • Author(s)
      橋本左京,竹内啓悟
    • Organizer
      第45回情報理論とその応用シンポジウム

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi