研究課題/領域番号 |
08235201
|
研究種目 |
重点領域研究
|
配分区分 | 補助金 |
研究機関 | 北海道大学 |
研究代表者 |
和田 充雄 北海道大学, 工学部, 教授 (90271650)
|
研究分担者 |
三上 貞芳 北海道大学, 工学部, 助教授 (50229655)
|
研究期間 (年度) |
1996
|
研究課題ステータス |
完了 (1996年度)
|
配分額 *注記 |
3,200千円 (直接経費: 3,200千円)
1996年度: 3,200千円 (直接経費: 3,200千円)
|
キーワード | 人間ロボット協調系 / 感覚知覚行動 / ロボティクス / 強化学習 / ニューラルネットワーク / 非線形アトラクタ |
研究概要 |
本研究は、人間機械系の協調を実現するために人間とロボット、並びにロボット同士で共有できる感覚と行動情報を生成・獲得し、非明示的な意志の疎通を図る機構の構成に関するものである。本年度は、ロボットの行動系として、同期・引き込み行動、ヒステリシス的な行動、強化学習による確率的探索行動の他、シナップス学習に遺伝探索的アルゴリズムを組み込んだ進化的学習行動をとりあげ、これらをニューラルネットワーク等による非線形情報処理形を構成する手法の開発、及び小型移動ロボットによる実験による検証を行い、以下の成果を得た。 1.リカレント・ニューラルネットワークと呼ばれる動的な神経回路網の解析に数論的な考察に基ずく新しい手法を考察し、行動リズムの同期、引き込み、記憶・再生の能力を引き出す解領域が存在することを示した。さらに、これを開発させ大規模化した場合の解領域の探索に遺伝的アルゴリズムを用いる手法の開発に進めた。 2.複数のエージェントロボットの行動を協調させるタスクでは、従来の強化学習の手法では収束が極めて遅い、また耐外乱の頑強性が非常に小さいなどの限界があった。そこで、複数のロボット同士が、お互いの行動がもつリズミックな性質を同定・予測し、それに基づいて最適行動をとらせる拡張型の強化学習法を新規に開発し、学習の収束性が著しく向上することを示した。 3.これらの成果とあわせ、次のターゲットとして、進化的手法を取り入れた行動ネットワークの設計法の検討に着手すると同時に、様々な状況に依存して得られた行動ルールを多様化し、未知の人間環境下に出会った時に備えた行動形態をとれ、さらにそれを継承できる知能システムの構成について展望した。
|