• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

1998 Fiscal Year Annual Research Report

医療手術の訓練/模擬システム構築のための基礎的研究

Research Project

Project/Area Number 09450105
Research InstitutionKyoto University

Principal Investigator

横小路 泰義  京都大学, 工学研究科, 助教授 (30202394)

Co-Investigator(Kenkyū-buntansha) 堤 定美  京都大学, 再生医科学研究所, 教授 (00028739)
山本 穣  京都大学, 工学研究科, 助手 (50026100)
吉川 恒夫  京都大学, 工学研究科, 教授 (60026177)
Keywordsバーチャルリアリティ / シミュレーション / マンマシンインタフェース / トレーニング / 技能伝達 / 力覚提示
Research Abstract

1. 切開や切断が可能な柔軟体のモデル化手法と,剛体と柔軟体が混在する環境下での力覚提示法の確立
前年度に引き続き,切開や切断が可能な柔軟体のモデル化手法を検討した.バネ・ダンパ・マスモデルを基本とし,接触領域近傍の状態のみを更新することにより計算量が膨大となる問題を解決した.またバネの伸縮長に制限を設けることにより,これまでバネモデルの問題点の一つであった質点の入れ替わり現象を回避することができた.
2. 力覚提示装置の試作と操作感提示の実験
1.で確立された手法に基づき,シミュレーションプログラムを作成し,グラフィックワークステーションに表示させるとともに,力覚提示装置に接触時や切開時の反力を提示するシステムを試作した.現在は一点接触のみの単純な場合しか扱えないが,順次より複雑な接触にも対応するように拡張する予定である.
また本研究ではユーザが仮想空間内でツールを把持しているときのみ実際に力覚提示装置を把持する「遭遇型」のアプローチをとるため,将来の医療手術シミュレーションを想定して複数のツールを単一の力覚提示装置で模擬する場合における力覚提示装置の動作計画法についても検討した.
3. 視覚系と力覚系が正しく登録された低想環境模擬システムの構築
前年度に確立した画像情報と加速度情報に基づいた視覚系と力覚系の正確な登録手法をヘッドマウントディスプレイに実装した.今年度は,ビデオカメラの画像の取り込みタイミングにも注意を払うことにより前年度の手法をさらに改良し,すばやい頭部の動きにでもより正確に頭部運動を追跡・予測できるようにした.予測に基づいて,実画面に仮想の画像を重ね合わせる実験を行い,定量的な評価も行った.さらに画像ベースのトラッキングのためのマーカーを環境中に多数配置し,動作範囲を拡大させることにも成功した.

  • Research Products

    (3 results)

All Other

All Publications (3 results)

  • [Publications] Y.Yokokohji: "A Vision-based Head Tracking for Image Overlay and Reducing Dynamic Registration Error with Acceleration Measurement" Proc.of 1998 Japan-USA Symposium on Flexible Automation. 1293-1296 (1998)

  • [Publications] Y.Yokokohji: "Accurate Image Overlay on Head-Mounted Displays Using Vision and Accelerometers" Proc.of 1999 IEEE International Conference on Robotics and Automation (掲載予定). (1999)

  • [Publications] Y.Yokokohji: "WYSIWYF Display: A Visual/Haptic Interface to Virtual Environment" PRESENCE (掲載予定). vol.8,no.4. (1999)

URL: 

Published: 1999-12-11   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi