2017 Fiscal Year Annual Research Report
潜在的相互作用の知覚に基づく遠隔操作視覚支援モニタリングシステム
Project/Area Number |
16H02880
|
Research Institution | Nagoya University |
Principal Investigator |
関山 浩介 名古屋大学, 工学研究科, 准教授 (40293675)
|
Project Period (FY) |
2016-04-01 – 2021-03-31
|
Keywords | マルチロボット / 遠隔操作 / 視覚支援 |
Outline of Annual Research Achievements |
本課題では,人が遠隔操作する作業ロボットと作業環境を自律的モニタリングロボットが環境認識し,作業状況に合わせて適切な観測領域ROIを選択し,最適視点からの映像を操作者へ適応的に提示する視覚支援システムを開発することが目的である.当初の技術課題として以下の5つを挙げた. ① Convolutional NNを用いた作業環境内物体の高精度認識,② ゲシュタルト知覚による潜在的相互作用対象物体の特定とLDAによる状況認識,③ 地上ロボットによるROIの最適視点選択(障害物回避,オクルージョン),④ ドローンによるROIの最適視点選択,⑤視覚支援による,ペグはめ込みタスクに対する作業ロボット遠隔操作の実験評価.
本年度は,上記①,②,③,⑤の項目を完全実装し,英文学術誌に成果発表した.モニタリングロボットの画像認識では,従来のCaffeからYOLOに手法を変更することにより,作業ロボットYouBotの姿勢やYouBotへの観測視点によらず,精度の高い認識を可能とした.これにより,作業全体において一切の人工マーカを使用せずにタスク遂行が可能となった.項目⑤では,従来の予備的実験では遠隔操作のタスクがやや単純すぎる問題があったため,作業環境における障害物回避をしつつPeg-in-hole(3本のペンを小さな穴に挿入)をタスクと設定した.提案手法の効果測定として,2台の定点カメラを設置し,作業ロボット自体にもカメラを装備したシステムと比較実験を行なった.被験者6名が各4回の試行を行なった実験では,提案手法では50%の操作時間短縮が確認された.また,ロボットのアームを物体に引っ掛けたり,グリッパから物体を落とす等のミスは比較実験の平均8回に対し,提案システムでは2回と安定した遠隔操作が可能であることが確認できた.被験者へのアンケート結果からも,操作感の向上に大きな改善を感じるという評価を得た.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
研究進捗は当初の計画通りに進んでいる.実装の完成度も上がっており,より精密な実験ができる準備が整ってきている.
|
Strategy for Future Research Activity |
現在では,ロボットの遠隔操作はゲーム用コントローラを使用しているが,より直感的な操作を実現するために,スマートグラスを採用する.複数のモニタリングロボットからの観測映像を選択的にグラスに投影し,また指の指示でロボットに基本的な動作を指示することも可能と考えられる.近年スマートグラスは,ドローンの遠隔操作に主に導入されている. スマートグラスのインターフェースの開発後に,ドローンを含めた協調作業システムを構築する予定である.
|
Research Products
(2 results)