研究概要 |
昨年度までの成果を受け、「シーンの画像特徴の評価法」、「拡張現実感の描画法」、「モバイルデバイスの自己位置推定法」及び「モバイルデバイスへの実装」について検討し報告した(Intl. Assoc. Pattern Recognition(IAPR) MVA2013, ロボティクス・メカトロニクス講演会(ROBOMEC2013),画像センシングシンポジウム(SSII2013),及び,画像の認識・理解シンポジウム(MIRU2013)など). 1.シーンの画像特徴の評価法:昨年度提案した「隠れ」(オクルージョン)を含む見え方の変化に対する頑健性の評価法について、CGによる評価環境を特徴点群の追跡に拡張した(SSII2013)。 2.拡張現実感の描画法:実シーンの影から光源を推定するため、RGB-Dカメラによる方法と、確率的探索法を提案した(SSKK2013、他)。 3.モバイルデバイスの自己位置推定法:視覚情報による自律移動ロボットの自己位置推定と環境地図の同時獲得法(SLAMと呼ばれる)は、モバイルデバイスに直ちに応用できる。全方位ステレオ画像から得た3次元点群データのスキャンマッチングによるロボットの位置姿勢推定法について検討した(MVA2013、ROBOMEC2013)。 4.モバイルデバイスへの実装:上記3.の姿勢推定法と2.の仮想物体描画法を簡略化した初期版をタブレット端末(アンドロイド)に実装した。シーンの特徴量としては、1.の成果を踏まえて、Oriented FAST and Rotated BRIEF(ORB) を用い、基本的な動作を確認した(MIRU2013)。なお、iOSデバイスへの実装も進めている(未発表)。
|