研究概要 |
本研究では,海外からのロボット遠隔制御システムの実現のため,次の2つのアプローチで操作者の情報をロボットに伝えるインターフェースの開発に取り組んだ. 1)言語コミュニケーション:通常人間が使用する音声などによる指令形態であり,「あの薬を取ってきて」や「お茶を入れて」のような具体的な表現によるコミュニケーション. 2)非言語コミュニケーション:言語的に表現できる指令には幾つかの解釈を持つものがある.例えば、「肩をたたく」という指令の場合,マッサージ効果のための動作,相手を気づかせるための動作,慰めのための動作などといったように,意向により動作が微妙に異なる.このように操作者の意向を抽出できるインターフェースである. 言語コミュニケーションついては,操作者の言語情報を機械に理解させる方法として,物体の指示からタスクを教示できる機能を開発した.具体的には,デスクトップに映し出された遠隔地の画像中における物体を,操作者がマウスでクリックすることによりタスクにおける対象物が認識でき,環境から構築されたデータベースにおける物体とタスクの関係から,操作者の意向が推測できる.本研究が対象とする家庭内においては,予め大まかな環境を把握することができることから,データベースを用意することができる.さらに,ロボットに未知な物体が指示された場合には,画像処理によりそれが未知であることが判断できる機能,および未知物体の把持位置推定機能の開発も行なった. 非言語コミュニケーションの開発では、これまでに開発を行なってきた操作者の意向を抽出する機能を拡張させ,インターネット上での遠隔操作環境での試験を行なった.ランダムかつ大きな通信時間遅れをもつインターネット上において,マスターアームによる操作者の「触れる」「たたく」「押す」という指令をリモート側で受信したデータは,操作者の意向に基づくものであり,従来の遠隔操作手法に比べランダムな時間遅れに対し頑健であることが分かった.
|