人間は自分の周りの世界を目で見て瞬時に理解することができるが,ロボットにはいまだ困難である.本研究は,人間と同様の視覚機能をロボットに持たせることを狙いとし,そのためには従来的な画像解析手法と人間のような常識知識の活用が重要となる. 最終年度は,常識知識の活用に関連して,概念ベースを用いて「なぞかけ」を自動生成するシステムの構築,DeepLearningを用いた音声合成,運動想起時の脳波が左右逆に出る現象の検証などの研究成果をあげた. また,研究期間全体を通じて実施した画像解析関連の主な研究成果は,畳み込みニューラルネットワーク(CNN)を用いた一般物体認識手法の提案である.これは,認識対象を実物体画像のみならずイラスト画像も対象としており,従来の実物体画像を学習した学習モデルを用いるとイラスト画像の物体認識率は大幅に低下した.CNNの問題点としては,大量の適切な画像を準備する必要があることであるが,本研究では,十分な量のイラスト画像を準備する代わりに,実画像に輪郭処理・減色処理等を行うことで大量のイラスト画像を自動生成する手法を提案した.このイラスト化画像を用いて学習を行うことでイラスト画像の認識率は向上した.また,イラスト化画像は減色率などのパラメータを変更することでより大量の学習データを作成することができる点においても有効ではないかと考えられる.しかし,画像加工を行う際に,学習や認識におけるノイズが発生する可能性があるので,より適切な画像加工方法を調査する必要があると考えられる.また未学習物体についても出力結果に閾値を設けることで未学習物体であると出力することが可能となった.つまり,人間と同様に知らない物体は,「知らない」と答えるのである.
|