研究概要 |
数学は今世紀の後半に入って急速な発展をしつつあるが,この10数年間の発展は目醒ましいものがあり,特に,情報科学関連領域への数学の応用は著しい.この領域は従来の数学概念を越え,数理科学と呼称する分野である.本研究では,この分野を函数解析的方法を駆使して,更に新たな領域に発展さすきっかけを作ることを目指した.これ等を順に概説する. (1)「エントロピー」を「情報」の概念をベースとして,その理論的展開.これはShannonによって発見された情報理論のスターティング・ポイントであり,情報に関する諸概念は全て,このエントロピーの情報理論的把握を成し遂げることがキーポイントであることを論じた. (2)情報を論ずる場合に情報という概念を数理論的に捉えることをする必要がある.これは単位記号集団が特定する1つの有限集合をAlphabetとして,それを基としてmessagesを構成し,これに集合・位相の数学的構造を導入し情報源として数理的に展開した. (3)(1),(2)の結果を不確定性関係に適用し,情報の不確定性と量子力学における不確定性関係が,上述のエントロピー定式を用いて同様に定式化なし得ることを証明した. (4)信号解析に於ける基本的手法は標本展開定理である.そこにおける主役は標本函数であり,その数学的取扱いを巡って函数解析を展開した.Formulationはvon Neumannによる同スペクトル理論である.この研究によって信号の数理が解析できる.例えば,標本函数系(一径数半群)をスペクトル測度として持つStieltjes積分を行なうことによって運動量作用素が導出され,信号の基本函数が観測理論と直結していることなどを明らかにした. (5)統計物理において平衡状態を表わす概念のGibbs分布は,エントロピー最大原理より導かれるが,近年これをニューロコンピュータの確率モデルに用いBoltzmann機械と呼ばれるシステムが提案された.これは最適値問題を解く汎用的機械としても使える.これに関して理論の解析とコンピュータシミュレーションを行なった. これ等の成果について,国際シンポジウム等に於て発表を行なった.
|