人間協調マルチメディア相互支援による人間と環境の観察に基づくインタラクション
Project/Area Number |
14019012
|
Research Category |
Grant-in-Aid for Scientific Research on Priority Areas
|
Allocation Type | Single-year Grants |
Review Section |
Science and Engineering
|
Research Institution | Saitama University |
Principal Investigator |
久野 義徳 埼玉大学, 工学部, 教授 (10252595)
|
Co-Investigator(Kenkyū-buntansha) |
中村 明生 埼玉大学, 工学部, 助手 (00334152)
|
Project Period (FY) |
2002 – 2003
|
Project Status |
Completed (Fiscal Year 2002)
|
Budget Amount *help |
¥6,500,000 (Direct Cost: ¥6,500,000)
Fiscal Year 2002: ¥6,500,000 (Direct Cost: ¥6,500,000)
|
Keywords | コンピュータビジョン / ヒューマンインターフェース / マルチモーダルインターフェース / 非言語コミュニケーション / 視線 / 意図理解 / サービスロボット / 車椅子 |
Research Abstract |
音声によりロボットと対話できれば、ロボットとのコミュニケーションが容易になる。音声理解については多くの研究があるが、音声で伝達される言語の表面的理解だけでは、ロボットに人間の意図を理解させ、それに基づいた行動を実行させることはできない。ロボットは発話中の物体と実世界の物体を視覚により対応させる必要がある。ここでは、頼まれたものを取ってくるロボットを例にして、音声による依頼を理解してものを取ってくるのに必要な視覚情報処理を検討した。まず、環境内に存在する物体を家具等の環境にほぼ固定された物体(付着対象)と、その他の一般の物体(遊離対象)に分けた。前者については動くことはあまりなく、また視覚で認識しにくいので、最初は人間が音声で誘導し、そこに着いたら、環境に配置されたマークを視覚で認識することによりその位置を求め、地図に記録する。後者については、要素的な画像処理を用意しておき、その処理の組合せと、各処理中のパラメータを変えながら、対象が検出できる処理手順を探索する。成功したら、その際の組合せとパラメータを関連する付着対象と関連付けて記憶する。ロボットを使ううちに、ある物体は特定の場所(付着対象)にあることが多いことがわかってくると、記憶した画像処理手順から調べることにより、効率的に物体が認識できる。また、人間との対話においても、その特定の場所にあるかどうかの確認だけで済むようになり、インタラクションの負担が軽減する。実際に対話と視覚情報処理を行うシステムを開発し、有効性を実験により確認した。また、以上の他に、周囲環境を認識することにより、簡単な音声指令で操縦することのできる知的車椅子を開発し、実験により有効性を示した。
|
Report
(1 results)
Research Products
(9 results)