研究課題/領域番号 |
20500178
|
研究種目 |
基盤研究(C)
|
配分区分 | 補助金 |
応募区分 | 一般 |
研究分野 |
知覚情報処理・知能ロボティクス
|
研究機関 | 電気通信大学 |
研究代表者 |
金子 正秀 電気通信大学, 大学院・情報理工学研究科, 教授 (90262039)
|
研究期間 (年度) |
2008 – 2010
|
研究課題ステータス |
完了 (2010年度)
|
配分額 *注記 |
4,680千円 (直接経費: 3,600千円、間接経費: 1,080千円)
2010年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2009年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2008年度: 2,730千円 (直接経費: 2,100千円、間接経費: 630千円)
|
キーワード | 画像認識 / 人工知能 / 知覚情報処理 / 知能ロボティックス / ユーザインターフェース / 音源位置推定 / ユーザインタフェース |
研究概要 |
人間共存型ロボットにおける「察するインタフェース」の実現に向けて、対人行動や対面動作における「察する」振舞、社会性を持った振舞について以下の成果を得た。まず、ユーザとロボット相互の動きを把握しながら、ロボットがユーザの期待(意図)に合せた対人行動を行う場合として、狭い通路でのすれ違い、障害物がある様な通路での並走と縦走の自律的切替えを可能とした。音情報に基づく出会い頭での衝突防止方法を開発した。また、実演販売や演説などの聴衆の立ち位置を調整するロボット、室内の任意の位置に着席した複数人からの挙手動作認識手法の開発を行った。
|