研究課題/領域番号 |
21H03409
|
研究機関 | 京都大学 |
研究代表者 |
粟野 皓光 京都大学, 情報学研究科, 准教授 (10799448)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
キーワード | ロボット / 協調制御 / 力触覚ガイダンス |
研究実績の概要 |
コロナ禍を経験し、経済活動を維持しつつも人対人の物理接触低減が求められる中で、遠隔操作可能なロボットを介した共同作業基盤を提供できる技術が注目を集めている。本研究では、遠隔操作ロボットの課題である操作性悪化を解決すべく、深層学習及び専用アクセラレータを駆使した未来予測技術に基づく遠隔操作補助システムを開発し、実ロボットにて、その有効性を実証する。今年度は以下の2つに取り組んだ。 (1)人型ロボットの遠隔制御システム構築:開発技術の実証に向け、上半身人型ロボットNextageを遠隔で制御できるシステムを構築した。具体的にはペン型力触覚提示デバイスである3D System Touchとロボットのエンドエフェクタ位置が連動するようなシステムをROSで構築した。またバージョンの異なるROSを組み合わせられるよう、全てのシステムをKVM等の仮想環境内に構築することで実験セットアップの時間短縮及び保全を可能とした。 (2)人の操作意図予測に基づく介入:人の操作を補助すべく、人の操作意図を予測し、力触覚デバイスを介してガイダンスを提示するシステムを構築した。まず、柔軟物をロボットで折り畳むタスクを想定し、(1)で構築したシステムを用いて、人の操作履歴とロボット頭部カメラの対応を取得した。次に操作履歴を時系列を扱うニューラルネットワークである再帰結合型ニューラルネットワークに学習させ、頭部カメラの画像から次にロボットが取り得る姿勢を予測させた。最後に、人の操作を補助するガイダンスとなるよう、ニューラルネットワークが予測する姿勢を力触覚デバイスに提示した。実験の結果、力触覚ガイダンスを提示したほうが提示しない場合と比較してタスク実行時間をおよそ4割削減できることを明らかにした。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
今年度は開発技術を実証できるよう、上半身ロボットを用いた実験環境構築に注力した。また、ロボットの遠隔制御システムにおいて、人の操作意図の予測及び力触覚ガイダンス提示を実現した。開発システムを用いた実験の結果、予測機構の有効性を柔軟物折り畳みタスクにおいて示すことができた。以上からおおむね順調に進展していると判断する。
|
今後の研究の推進方策 |
今年度の取り組みにより実ロボットを用いた実験環境がおおむね整備できた。今後はこの環境を活用し、主に以下のことに重点的に取り組んでいく。 * 協調作業補助に特化した軽量ニューラルネットワーク(NN):完全自律動作を前提とした既存の知能ロボット向けアクセラレータでは、推論精度を保つべく2値化NN等の軽量NNアルゴリズムは活用しにくかった。一方で、人の介入を前提と出来る協調作業システムにおいては、ある程度の推論誤りが許容できると考えられる。そこで、推論誤りを許容できる協調作業の補助に特化した、軽量NNアルゴリズムの在り方を見いだしていく。 * メモリ内2値化NNアクセラレーション:これまでの研究からロボットの知能化においても2値化NNが有効であることが見出されつつある。そこで、2値化NNに特化したメモリ内NNアクセラレータを開発する。具体的には8T-SRAMを基本とした回路方式を採用し、一般的には相補的に駆動される1対のビットラインを、互いに独立に駆動させることで単一セルで2つの内積の同時計算を実現する。
|