研究概要 |
本年度は,これまで自律型専用に作られていた現有の車輪型移動ロボットを本研究課題に転用するために,没入型インターフェースを備えた遠隔操縦システムを開発した. ロボットに搭載された双曲面ミラーとCCDカメラによって撮像された全方位の映像信号は,電波でフイールド外のPCへ送られる.操縦者には,眼鏡型の液晶ディスプレイを装着させ,ディスプレイ上に取り付けたヘッドトラッカ(複合型センサ)で頭部の姿勢角を検出する.頭部の姿勢角に基づいて,全方位画像を頭の正面方向の透視投影画像に変換し,それをディスプレイに表示する. また,操縦者は,作業モードを切り替えるいくつかの押しボタンと,低レベルの動作指令を与えるジョイスティックを用いて,ロボットの動作を指示する.それがPCを介して電波でロボットヘ送られる. 使用する機器の選定やシステムの統合に予想以上に時間がかかったが,最終的には,33ms周期で遅れなく画像を提示し,適切な指令を送出できる遠隔操縦システムが完成した.ただし,ディスプレイの視野角が狭いために,十分な臨場感(没入感)が得られないことがわかったので,別の提示方法も検討する必要がある. 次に,遠隔操縦を通して人間の振る舞いを分析する準備として,遠隔操縦の評価の方法について検討を行なった.4つのタスクを設定し,複数の被験者に対して操縦を行なわせ,操縦中の頭部の方向やジョイスティックの変化や,試行ごとの学習過程に対して基礎的な分析を行なった.
|