研究実績の概要 |
本研究の目的は,時空間視覚特徴の抽出,及びこの特徴を利用した視覚情報認識を効率よく行っている生体の視覚神経系に学び,手のひらサイズで実時間動作する手話認識システムの開発を行うことである.この目的を実現するため,本年度は(1)生体の一次視覚野の時空間応答特性に学んだ特徴量抽出のシミュレーションと,(2)特徴情報の時空間パターンからパターン分類可能な人工知能のシミュレーションを行った.
(1)では,一次視覚野の時空間応答特性を元に作られたモデル(N. C. Rust, et al., Neuron, 2005)を,Pythonを用いてプログラミングし,様々な視覚入力に対する応答のシミュレーションをおこなった.入力信号として利用したのは,45度ごと8方位の輪郭,並びにサイン波グレーティングである.シミュレーションの結果は,本モデルが優れた運動方向選択性を有していることを示し,動きパターンを分類する人工知能に入力する信号を生成するための前処理器として適していることを示した.
(2)では,(1)の前処理により予め特徴抽出が行われている情報を利用することから,現在広く利用されている深層ニューラルネットワーク (NN) は必要ないと判断し,層が浅く計算コストの低い再帰的NNである,echo state network (ESN)を利用した.ESNのプログラミングには,Pythonを用いた.プログラムしたESNに,ヒトの運動(歩く,走る,飛ぶ,等)の識別課題を行わせた.前処理を行った入力と,行わなかった入力をESNに与え,識別精度を比較した.ここで用いた前処理は,(1)がまだ完了していないことから,(1)のものではなく,昆虫の視覚神経系の応答に学んだ視覚運動特徴抽出モデルであるEMDによる処理である.本実験の結果は,前処理済みの信号に対して,ESNが高い精度で識別課題を行えることを示した.
|