研究概要 |
本研究ではまず、社会状況に含まれる各主体の状況に対する認知が異なることによる情報の分散共有の状態を記述するための数理的モデルとして、二人ハイパーゲームを本質的に拡張した動的ネットワーク型ハイパーゲームを定式化した。これによりゲームを繰り返すことで各主体が持つ認知を学習していく過程を記述することが可能となった。 次に、学習過程を分析するために、遺伝アルゴリズムを動的ネットワーク型ハイパーゲームに適用して、相互認識の学習過程における情報のタイプについて知見を得た。本研究では、社会集団に含まれる各主体が同時に並列的に状況認知を表す自己の利得行列を改善する方法、特にゲームを繰り返す中で以前のゲームの結果をどのように評価し次のゲームにおける利得行列に反映させたらよいのかを探ることが主な目的であった。本研究により、利得が(0,1,2)の限られた場合における利得行列の並列的学習に成功した。 実験の結果を基づいて、認知の学習理論のための基礎枠組みを構築することも試みた。基本的には動的ネットワーク型ハイパーゲームであるが、そこにおける認知の進化的学習の問題を定式化した。これにより、従来型の漸近的な学習プロセスによる取り扱いでは本研究におけるハイパーゲーム型状況の学習に接近することが困難であることが明かとなった。 これらの研究成果は、システム関連の国際会議、経営情報学会、進化経済学会において発表された。特に進化経済学会における発表では、進化ゲーム等との関連も明らかにした。
|