研究課題/領域番号 |
24500224
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
研究分野 |
知覚情報処理・知能ロボティクス
|
研究機関 | 立命館大学 |
研究代表者 |
島田 伸敬 立命館大学, 情報理工学部, 教授 (10294034)
|
研究期間 (年度) |
2012-04-01 – 2015-03-31
|
研究課題ステータス |
完了 (2014年度)
|
配分額 *注記 |
5,330千円 (直接経費: 4,100千円、間接経費: 1,230千円)
2014年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2013年度: 1,950千円 (直接経費: 1,500千円、間接経費: 450千円)
2012年度: 2,470千円 (直接経費: 1,900千円、間接経費: 570千円)
|
キーワード | 指使い / 画像認識 / 把持状態空間 / 機械学習 / 想起 / CNN / プロセスモデリング / 人工知能 / 画像 / 物体認識 / ジェスチャ / 物体機能 / 物体の機能 |
研究成果の概要 |
指使いと物体の見えの関連性を事例から学習する枠組みを提案した。初見の物体の見えを与えると、手指がその物体をどのように把持するかを想起できることを実験的に示した。 1)手指Joint局所特徴をHough Forest法による手首位置を推定し被把持物体領域を推定2)物体把持のインタラクション状態を表現する把持状態空間をSparse Stacked Convolutional Autoencoderによるクラスタリングを応用して獲得3)把持状態表現と物体の見えの関連をConvolutional Neural Netを用いて学習して初見の物体の見えからその把持状態を想起
|