研究概要 |
本年度の成果を(1)室内実験および(2)アルゴリズムの2つに分けて整理する. (1)室内実験 1-1実験目的:室内実験の目的は次の4つである.(1)経路情報のみでWardrop均衡に収束するか(2)経路情報の提供は均衡あるいは被験者の報酬増加に寄与するか,(3)リグレットマッチング理論をベースにした情報提供はSeltenらの累積報酬情報よりも学習効果があるか,(4)より複雑な経路選択において,(1)~(3)の結論は成立するのか. 1-2実験:2経路および3経路の場合の選択問題を18名の被験者を対象に,6セッション実施した.被験者はコンピュータ画面に表示される経路を経路情報に基づき,1セッションあたり100~150回反復して選択を繰り返す. 1-3結果:(1)累積報酬情報,リグレット情報に関わらず,人々の経路選択はWardrop均衡の理論値の周辺に収束し,実験の期待値は理論値に一致した.(2)自分の経験だけに基づく経路選択より,利用しない経路の経路情報を与える場合は,被験者の報酬を増加させ,経路変更回数を減少させる.また,理論的均衡値にも早く漸近する傾向を示した.(3)Seltenらの累積情報よりリグレット情報のほうが繰り返し選択ごとの学習効果を高めることが統計的にも確認できた.(4)経路を3経路に増やした場合でも,上記の結論は変わらないが,理論的均衡値への漸近性は2経路のケースよりは悪くなる. (2)アルゴリズム 経路選択の混合戦略をlogit型モデルで与える場合,経路報酬にかかる重みパラメータを経路選択集合と連携させて求める手法はこれまで提案されていない.本研究では,これを行動選択の反復回数ごとに更新していく手法を開発し,重みがある値に収束することを数値計算的にも確認した.
|