研究概要 |
初年度の研究として,1)ルールを基にしたニューラルネットの学習,2)ニューラルネットツリーの実時間学習,3)ニューラルネットからのルール抽出,などについて検討した。 1)に関しては、Kheperaロボットの行動戦略をニューラルネットの進化学習によって獲得する際にして、ルールなどの本能を与えると学習速度と結果にどのように影響するかについてシミュレーションによって考察した。具体的結論をまだ言えない段階であるが,ルールの選択と使い方によって結果も大きく変わることが実験によってわかった。すなわち,1)を解決するために,どのような本能をロボットに与えれば良いか,与えられた本能をどのように使えばよいか,などを答える必要がある。次年度では、これについて考えたい。 2)に関しては,ニューラルネットツリーの再学習と実時間学習について検討した。これはルールの更新に重要である。ここでは、ツリー自身は成長するかどうかはポイントになっている。成長とはツリーのノードを必要に応じて増やすことである。どのように成長するか問題である。単純成長,復習しながら成長,忘却付き成長,などいろいろ考えられる。今年度は既存のデータベースを利用して基礎実験を行ったが,次年度からはロボットの実験について検討したい。 3)について、判別木によるルールの抽出を検討した。近似誤差からみると,結果はあまり望ましくなかった。しかし、ロボットの成功率で言えば,もとのニューラルネットよりも、判別木のほうが良かった。即ち,ロボットの制御に限って考えると,ニューラルネットを忠実に近似する必要はない。むしろ、一般的に通用するルールを抽出することは重要である。このようなルールを抽出し,検出できれば,1)に再利用できるので,非常に意味深い問題であり、これから重点に検討したい。
|