研究概要 |
本研究では使いやすいヒューマンインタフェースを実現するために,無意識的行動と意識的行動の観察の統合,人間と環境の観察の統合,マルチメディア認識間の相互支援と人間介在協調支援の3点を検討する.そして,これを主にロボット車椅子と身体の不自由な人のために指示されたものを取ってくる移動作業ロボットの開発を通じて行う.ロボット車椅子については,今年度はまず,そのハードウェアの準備を行った.軽量で反応性のよいものにするために、障害物回避と周囲の距離情報を得るための小型の光電センサを搭載したものを開発した。これを用い,進行方向がT字路であるかなどの環境情報を得る方法を開発した.この環境情報と搭乗者の簡単な動作の観察の両者から,搭乗者の意図を理解することのできる見通しを得た.また,車椅子については,周囲の歩行者の顔の向きを見ることにより,避け方を変える方法を考案した.車椅子の方に顔を向けていれば,車椅子に気付いていると考えられるが,そうでなければ気付いていない可能性がある.そこで,前者の場合はしばらく様子を見るが,後者の場合は車椅子の方から先に避けるようにした.これは,歩行者の車椅子への情報伝達を意図したのではない無意識的行動の利用にあたる.移動作業ロボットに関しては,人間の発話の中で視覚により実世界の情報を得る必要がある部分を取り出す方法を検討した.そして,その視覚情報処理の結果を人間に音声で知らせることにより,処理に失敗したり情報が不足の場合に,人間から支援情報をもらう方法を検討した.無意識的行動の利用に関しては,上記2つのロボットとは別に,インターネットの多数の検索結果を高速に流れるように表示し,それを追いかけて読む視線の速さに応じて表示速度を変えるシステムを開発した.表示速度制御を意図したものではない視線の動きを利用することにより有効なインタフェースが実現できることを示した.
|