2008 Fiscal Year Annual Research Report
Project/Area Number |
19760161
|
Research Institution | Ibaraki University |
Principal Investigator |
城間 直司 Ibaraki University, 工学部, 准教授 (90312826)
|
Keywords | ユーザインターフェース / 知能機械 / 制御工学 / リモートセンシング / バーチャルリアリティ |
Research Abstract |
本研究では, 脳内モデル, 平面投影像そして身体性というような人間の環境把握モデルで, 特に人間の身体性の一部である視点や視線の動きの重要性に着目し, 人間志向な視線感による環境把握メカニズムの解明を行うことを目的としている. 検証システムでは, 身体性を考慮した視点・視線の動きおよび超身体性を考慮した視点・視線の動きを実現するものである. 本研究では, これらを実現するシステムを構築し, 構築システムにより人間の環境把握の向上を図ることが可能であるかの検証実験を行い, 提案環境把握モデルの有効性を示す. 当該年度の研究成果の内容としては, 任意内挿視点画像の生成において, 2台のカメラのみによるより処理速度の速い内挿画像生成システムを前年度に開発したアルゴリズムを適用することにより開発した. 前年において開発した広視野の安定化画像においては, これまでのシステムでの解像度が低い生成安定化画像をより環境認識性能がよい高解像度な画像を生成できるシステムへと改良を行った. そして, カメラ画像情報を用いた視線操作による環境認識において, 環境の平面等映像として得られる移動ロボット搭載カメラの画像, 環境設置カメラの画像およびそれらのカメラにより過去に撮像された画像をもとに人間志向な視線操作システムの開発および検証を行った. 環境の様子の情報を得るために操作者へ提示される画像は, 視野領域が限られているために, カメラの視線方向を変えたり, 視線を移動させたりする必要がある. ロボットを移動することにより操作者が意図する視点位置や視線方向の画像を得るのには, 移動するロボットの物理的な身体性の拘束を受けてしまうが, 開発したシステムでは, 得られる画像情報を利用することによりそれらの拘束を受けずにより俊敏に意図する視線方向の画像を得ることが可能であることが確認でき, 提案環境把握モデルの有効性が確認できた.
|