本研究において,深度画像上で正確な3Dの手のポーズを取得することに関する研究を行い,IEEE Access誌に採録された.この推定作業の大部分は手の部分があらかじめ与えられているか,または深さ閾値によって容易にセグメント化されることができると仮定する.しかし,様々なシナリオでロバストハンドセグメンテーションを実行するためには,セグメンテーションを自動化する必要がある.提案手法は,深度ビデオの一時的な情報を利用することにより,既存の方法よりも大幅なパフォーマンスの向上が得られる.このことをよく使われるデータセットにより確かめた.さらに、Hand2017 Challengeの3Dハンドポーズトラッキングタスクでもトップレベルの結果を達成した.
本研究で得られたプログラムの実装をGitHub上で公開した( https://github.com/shibatch/rectdetect ).また,本研究の総合的な成果をIEEE Transactionsに投稿するための準備を進めている.成果物の実装は完了しているが,ほかの手法と比較するためにはデータセットを作成する必要があるという結論に達したため,データセットを作成するための作業が必要になった.これは,数千枚程度の各種図形が含まれた画像からなり,人の手により正解データが与えられているものである.このデータセットも完成後無料で公開する予定である.この成果は2019年中に論文として仕上げ,投稿することを予定している.
また,それ以外に人物照合に関する研究も行った.
|