研究課題/領域番号 |
22240019
|
研究機関 | 独立行政法人産業技術総合研究所 |
研究代表者 |
喜多 泰代 独立行政法人産業技術総合研究所, 知能システム研究部門, 上級主任研究員 (00356875)
|
研究分担者 |
植芝 俊夫 独立行政法人産業技術総合研究所, 知能システム研究部門, 主任研究員 (20356546)
喜多 伸之 独立行政法人産業技術総合研究所, 知能システム研究部門, 主任研究員 (90356874)
森澤 光晴 独立行政法人産業技術総合研究所, 知能システム研究部門, 研究員 (00392671)
金広 文男 独立行政法人産業技術総合研究所, 知能システム研究部門, 主任研究員 (70356806)
|
研究期間 (年度) |
2010-04-01 – 2014-03-31
|
キーワード | ロボットビジョン / 柔軟物ハンドリング / モデル駆動型画像処理 / アクション連動 / ヒューマノイド / ステレオビジョン / 広視野視覚 / 変形モデリング |
研究概要 |
H24年度は、状態が既知になった後の衣類の整形動作に有用な「アクションと視覚の連動」機能を整理し、「畳み動作」を例として、基盤となる手法を開発した。下記の技術進展のうち、(1)、(2)は、手法の実現を支える成果であり、(3)、(4)は、将来的な頑健性向上を見据えた成果である。 (1)アクションと視覚認識の連動: 「畳む」というタスクを実現するために、衣類形状を机上で整形しながら、次に把持すべき部位の位置・姿勢を限定し、その限定情報を活用した画像処理で、アクション遂行に必要な3次元情報を入手する戦略を提案した。この戦略に沿って、「袖の折り」「身頃の折」を頑健に実現する手法を開発し、実装によりその性能を確認した。 (2)実行可能アクションの自動変換:昨年度行った手首機構の改造等により、立ち位置変更を行わずとも十分な作業範囲が得られることが確認できたため、手先の円弧運動機能の開発を行った。これにより、衣類を折りたたむ際に折り目を回転軸として袖等を回転運動させる動作を実現した。 (3)アクションの実行精度を高め、より確実な作業を実現するために、ロボット-視覚系間のキャリブレーションをオンラインで実行する手法について検討した。その実現に必須な要素技術として、ロボット系と視覚系の時刻を正確に同期させ、撮影時刻におけるロボットの位置・姿勢を高精度に推定する手法を開発した。 (4)広視野視覚情報の利用:衣類の把持状態情報などを利用して処理すべき視野領域を限定することで処理を高速化し、同時に処理結果の信頼性の向上にも成功した。実際のハンドリング作業においては対象衣類やそれを把持するアームハンドにより背景が大きく隠蔽されるが、その間も自己位置姿勢推定を破綻させないための改良も行った。これらにより、開発手法の実応用への適用を開始できる段階となった。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
本研究期間内では、「任意の状態に置かれた衣類を、指定する目標形状で把持する」課題を設定し、視覚認識とアクションとの連動要素技術の研究開発を行い、一連動作遂行による実証を行うことを目標として研究を進めている。この過程で、「アクションにより能動的に未来の形状を絞り込み認識する」戦略の有用性がより明確になってきており、遂行すべきタスク最終目標を考慮に入れた方向性の中でこの戦略を実現する重要性が見えてきた。このため、目標とする最終状態を「指定する目標形状で把持」から、一歩進めて、「畳む」という実応用タスクまで拡張して、研究を展開させており、その進めた方針の中で順調な進展を見せている。
|
今後の研究の推進方策 |
H23年度までに、未知の状態にある衣類の形状を認識するための「アクションと視覚の連動」に関する研究を行い、H24年度に状態が既知となった後のタスク遂行時における「アクションと視覚の連動」に着目して研究を進めた。最終年度となるH25年度は、これらをつなぎ、「任意の形に置かれた衣類を取り上げ畳む」という高度なタスクを実現する手法の開発を目指す。
|