研究概要 |
1.目的 人工現実感(virtual reality)システムは,コンピュータとの間の通信や移動ロボットの遠隔操作を行うための新しいマン・マシン・インタフェースとして注目されている.本研究では,人工現実感システムの最適設計を行うための基礎的研究として,人工現実感が与えられた場合の人間の運動制御能力とその限界,空間知覚特性あるいは心理的影響などを詳しく解析するための実験システムの構築を目的とした. 2.方法 本研究では,周囲空間の空間知覚特性に大きく依存する人間の姿勢制御特性に着目し,直立した被験者に呈示する視覚情報を,頭部装着用視覚入力装置(HMD;ソニー製バイザートロン)と計算機仮想空間に基づいて人為的に改変し,このときの姿勢制御系の応答を解析するためのシステムを構築した.被検者は,3個のLEDが正三角形の頂点にくるように配置されたヘルメットを装着して静止直立する.これらを光学式位置検出装置で計測した後,パソコンにおいて処理することにより頭部の座標が計算され,これに応じた線画の立体映像(対角線が連結された直方体)がHMDを通して被験者の左右両眼に呈示される. 3.結果 従来,人間の頭部運動を光学的に非接触で計測するためには,2台のカメラが必要であったが,本システムにより,1台のカメラだけで頭部の6自由度の運動をリアルタイムに計算することが可能となった.実験では,視覚刺激座標を時間離散的に呈示し,その呈示周期を徐々に増加させた場合の動揺開始時間を,視野を左または右だけに限定した場合について比較することにより,右脳の空間知覚機能における優位性を検討した.その結果,主としてHMDの視野の狭さが原因で,左右視野の間に有意な差を見いだすには至らなかった.
|