• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2013 Fiscal Year Research-status Report

高速ビジョンと多指ハンド操りを利用した全情報把握

Research Project

Project/Area Number 25540113
Research Category

Grant-in-Aid for Challenging Exploratory Research

Research InstitutionThe University of Tokyo

Principal Investigator

妹尾 拓  東京大学, 情報理工学(系)研究科, 助教 (10512113)

Project Period (FY) 2013-04-01 – 2015-03-31
Keywordsロボット工学 / 画像処理 / 多指ハンド / 力学同定
Research Abstract

本年度の研究成果について,サブテーマごとに以下に示す.
(A)高速ビジョンによる幾何情報・力学情報の同時センシング手法の確立
(A-1)高速ビジョンシステム:高速視覚センサと処理系を統合した高速ビジョンシステムを構築した.幾何情報や力学情報の演算結果をハンドの操りに利用可能にするために,ハンド用コントローラへのリアルタイム通信環境の整備や,センシング範囲に合わせた光学系の選定をおこない,実験環境をセットアップした.(A-2)3次元形状復元:対象時系列画像の輪郭情報のみから3次元形状を復元する手法を提案した.この手法は,ハンドを用いた2点把持による対象の固定軸回転運動を想定し,時系列データに基づく回転情報の推定とボクセル空間における視体積交差法で構成されている.シミュレーションでは,ボクセル空間において立方体・直方体・桝形ブロックの3種類の形状を回転させて3次元形状の復元をおこなった結果,復元後のボクセル数は平均誤差4%以内に抑えられることを示した.(A-3)力学パラメータ同定:画像の時系列情報のみから回転軸が推定可能という条件のもと,エネルギー保存則と角運動量保存則を用いることで,慣性主軸と角運動量の計算過程を2次曲面へのフィッティングとして定式化する手法を提案した.シミュレーションでは直方体の運動を1msごとにサンプリングしたデータから同定し,慣性主軸は1%の誤差で推定できることを確認した.
(B)高速多指ハンドによる能動的操り手法の開発
対象計測としてビジョンを用いることを考慮し,指で対象の遮蔽が生じないような操り軌道の計画と,ハンド制御のためのセンサフィードバックアルゴリズムを構築した.検証実験として,ハンドによるコネクタ操りのタスクに提案手法を実装し,高速ビジョンによるコネクタの形状復元の実現と,異なるコネクタ形状に合わせた指運動の適応的な切り替わりを実現した.

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本年度は,高速ビジョンシステムの構築,センシング手法の基礎的検討とシミュレーション評価,および操りシーケンスの定式化を中心に行い,サブテーマごとの状況もほぼ当初の計画通りに進行している.
(A)高速ビジョンによる幾何情報・力学情報の同時センシング手法の確立
(A-1)高速ビジョンシステム:幾何情報と力学情報を並列に計算するシステムの実現へ向けて,これまでに実験環境の構築を進めてきた.現状では,センシング系・処理系・通信系のシステム開発はほぼ完了したと言える.(A-2)3次元形状復元:視体積交差法に基づく復元手法の提案と同時に,比較実験として楕円近似による回転情報の推定もおこない,特徴点全点の軌跡を利用した楕円近似の手法よりもロバスト性に優れているという比較評価も完了したことから,実機実験による検証の段階へ到達したと考えられる.(A-3)力学パラメータ同定:力学情報のうち慣性主軸と角運動量の推定手法を提案してきた.今後は質量分布の推定手法について提案することで,力学情報に関する可同定性の判定条件の明示化や不良設定問題の対処法などをまとめる段階へ到達した.
(B)高速多指ハンドによる能動的操り手法の開発
幾何/力学情報の取得状態に応じた操りシーケンスをモデル化することを目標に,これまではコネクタ操りのタスクを例に検証を進めてきた.現状は,基本的な操り計画と視覚センサフィードバックアルゴリズムに関する開発がほぼ終わり,情報取得のための操りに適したハンドメカニズムへの改良と復元情報に基づく操りの高精度化・ロバスト化に向けた段階に入りつつあると考えられる.

Strategy for Future Research Activity

今後の推進方策について,サブテーマごとに以下に示す.
(A)高速ビジョンによる幾何情報・力学情報の同時センシング手法の確立
幾何情報と力学情報の相互関係を定式化し,両者の計算過程の並列化に基づく情報復元の効率化や,時系列データの逐次的な情報統合を利用した高精度化手法について検討する.実験で得られたデータの時空間特性を解析し,ハンドの運動速度とセンシングの時間分解能の相関関係を見出すことで,幾何/力学情報の復元手法の更なるロバスト化や高精度化を実現する.幾何/力学情報センシングに最適な同定手法やメカニズムを構成論的に見つけ出し,本研究で得られた技術基盤の体系化を図って一般理論としての整備を行うとともに,関連応用システムに活用可能な体系としてまとめる.
(B)高速多指ハンドによる能動的操り手法の開発
対象の情報取得に適したハンドへ改造し,基本的操り動作である固定軸回転運動が遂行できるか確認すると同時に,メカニズムの高速運動性能に関する検証実験をおこなう.操りをロバストに実行するのに必要な指の摩擦特性・柔軟特性について考察し,検証実験の評価と合わせてハードウェアの最終調整をおこなう.幾何/力学情報を逐次的に制御系へフィードバックすることで,マニピュレーションにおける安定性の改善と応答特性の向上が実現することを確認し,情報復元とハンド操りの相補的かつシームレスな統合を実現する.

Expenditure Plans for the Next FY Research Funding

当初購入予定であった高速カメラに関して,当該年度に別機種の新製品がリリースされたため,性能・価格等を勘案して比較選定した結果,事前計画とは異なる機種の製品を購入することにした.この高速カメラが当初計画していた製品より安価であったため,その差額の一部を次年度に割り当てて使用する状況に至った.
次年度使用額は翌年度助成金の4%程度であるため,基本的には当初の使用計画から大幅な変更をせずに研究を遂行することが可能である.該当額は物品費として追加することにし,多指ハンドの改造に補填する予定である.

  • Research Products

    (4 results)

All Other

All Presentation (3 results) Remarks (1 results)

  • [Presentation] 3D Shape Reconstruction of an Object based on its Silhouette using a High-speed Vision

    • Author(s)
      Yuji Yamakawa, Yoshiyuki Tabata, Taku Senoo and Masatoshi Ishikawa
    • Organizer
      SICE Annual Conference 2013
    • Place of Presentation
      Aichi, Nagoya University
  • [Presentation] High-Speed Manipulation of Cable Connector Using a High-Speed Robot Hand

    • Author(s)
      Tomoki Tamada, Yuji Yamakawa, Taku Senoo and Masatoshi Ishikawa
    • Organizer
      IEEE International Conference on Robotics and Biomimetics
    • Place of Presentation
      Shenzhen, China
  • [Presentation] 高速ロボットハンドと高速ビジュアルフィードバックを用いたコネクタの高速挿入操作

    • Author(s)
      玉田智樹, 山川雄司, 妹尾拓, 石川正俊
    • Organizer
      第19回 ロボティクスシンポジア
    • Place of Presentation
      兵庫,有馬グランドホテル
  • [Remarks] 石川研究室ホームページ

    • URL

      http://www.k2.t.u-tokyo.ac.jp/index-j.html

URL: 

Published: 2015-05-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi