研究課題
手術現場では,執刀医自らの対話操作で医用画像内から患者に特化した血管構造を直感的に理解できることが求められる.本研究では,執刀医自らの対話操作により医用画像内の臓器情報とその血管構造解析が直感的に理解・操作できる,手術支援のための血管構造可視化とタッチレス対話可視化操作システムの開発を行った.血管構造の可視化は,得られた患者の3つの腹部造影CT像から機械学習に基づいて肝臓領域内の動脈・門脈・静脈の血管情報を抽出し,位置合わせを行い,肝臓情報とともに患者個人に特化した肝臓の三次元構造(計算解剖モデル)の可視化を仮想空間上に提示した.タッチレス医用画像可視化支援とシステム開発としては,昨年度に引き続き,L字型スクリーン上で肝臓の計算解剖モデルに対し,Kinectから得られたDepth画像を用いた対話的な可視化操作,そして可視化操作の精度向上を図った.精度向上として,ジェスチャのためのデータベースにおける学習例を10例とし,それぞれ20名から10例の手形状を各100枚ずつ情報を取得し,データベース整備を行った.また,ジェスチャの特徴表現では,HOG特徴量により各形状情報を表現し機械学習に基づいて手指形状認識を行った.さらに,近年,画像解析においてその認識精度の高さから注目の高い,DeepLearningを導入することで,これまで形状特徴を用いた機械学習から,Depth画像特徴をそのまま利用し,ジェスチャ認識を行った.従来の形状特徴を用いた手法では,画像から形状特徴を解析・抽出し,認識を行っていたが,Deep Learningを導入することで,得られたDepth画像をそのまま利用し,形状認識を行うことが可能になった.また,可視化提示システムでの操作も高い精度でジェスチャ認識を行い,スムーズなタッチレス医用画像操作が可能になった.
すべて 2017 その他
すべて 雑誌論文 (2件) (うち査読あり 2件、 オープンアクセス 1件) 学会発表 (13件) (うち国際学会 4件、 招待講演 3件) 備考 (2件)
International Journal of Computer and Electrical Engineering
巻: 9 ページ: 421~429
10.17706/IJCEE.2017.9.2.421-429
The Journal of Transportation Medicine
巻: 71(3/4) ページ: 88-96
https://sites.google.com/site/ivalithiroshima/
https://carp.cc.it-hiroshima.ac.jp/~tateyama/