研究概要 |
現在までに提案された探索アルゴリズムは,A^*に代表されるオフライン探索と,Real-Time-A^*やLearning Real-Time-A^*(LRTA^*)に代表される実時間探索に分類できる.オフライン探索が目標に至る経路をあらかじめ完全に探索するのに対し,実時間探索は定数時間の探索結果を基に判断を下し,移動しながら探索を続ける.実時間探索は最適解を保証できないが,プランニングと動作を交互にあるいは平行に実行することができる. 本研究は実時間探索アルゴリズムを自律エージェントあるいはマルチエージェントの世界に適用できるように拡張するものである.実時間探索は資源制約下での問題解決に対して魅力的な枠組を提供するものの,問題解決器は自律エージェントと言えるほど十分に合理的ではない.即ち,問題解決器は目標を達成するまでに多くの無駄な動作を実行する,あるいは問題解決器は過去の経験を活用できないなどの問題がある.また,実時間探索はプランニングと動作を交錯させることはできるが,マルチエージェントの動的に世界に適用するにはまだ不十分である.即ち,問題解決器は動的に変化する目標に追随できない,他の問題解決器と協調して問題を解くことができないなどの問題がある.この研究では,上記の問題を解決するために,新しいアルゴリズムとして,重みつき実時間探索,上界値を用いた実時間探索,移動目標探索,実時間両方向探索などを考案した.
|