研究課題/領域番号 |
22K12205
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61050:知能ロボティクス関連
|
研究機関 | 大阪大学 |
研究代表者 |
万 偉偉 大阪大学, 大学院基礎工学研究科, 准教授 (20760002)
|
研究期間 (年度) |
2022-04-01 – 2025-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2024年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2023年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
2022年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
|
キーワード | ロボット動作自動生成 / マニピュレータの動作生成 / 人の作業動作の分類 / 直感的な教示 / インターフェース / ロボット教示 / ロボット動作計画 / 模倣学習 |
研究開始時の研究の概要 |
本研究では,AIを併用した教示に注目し,ヒトの指示棒を用いた指示を自動的に解析し,これをロボットの動作自動生成システムと結合することで,生物や化学分野の実験を直感的にロボット化することを目指す。特に,教示した動作の分類,同時計画を用いた把持の再選定とタスクの補整,分類に応じた動作の自動生成と統合などの課題に取り組んで,ヒトとロボットの把持と動作写像の不一致の問題,ヒトの指示動作の冗長性の問題,動作模倣と計画の役割の分割などの問題を解消する。
|
研究実績の概要 |
2023年度の主要な研究成果は、以下の3つの小テーマに主に焦点を当てています。第一に、指示棒の設計をアップグレードしました。具体的には、uIMUモジュール(加速度センサー)を使用して人の動作を追跡する機能の追加と、WiFiモジュールを使用してデータをワイヤレスで記録する機能の追加を行いました。これらの2つのモジュールは、OptiTrackと協力して、教示動作の追跡を実現しています。第二に、教示プロセス中にフレームが失われる状況について、学習ベースの予測補完方法を探索しました。特に、Transformerに基づく予測に焦点を当てました。Transformerの入力情報は、以前のuIMU情報とOptiTrackによって追跡された軌跡情報であり、出力は予測結果です。第三に、動作の分類と補完生成方法を修正しました。元の計画では、異なるアルゴリズムを使用して分類の結果に応じて動作生成を行っていましたが、新しい方法では分類の目的をワークスペースの制約を取得することとして単純化しました。具体的なロボット動作生成アルゴリズムは統一されまして、パラメータを使用して制約を変化させ、異なる分類結果に対応させます。今年度開発された新しい方法は、シミュレーションシステムでテストされ、ドアの開閉などのアプリケーションにおいて有用性が示されました。また、今年度の開発中では、制約に基づく確率生成方法の速度が非常に遅いことが分かりました。この問題を解決するために、今年度はデータに基づく動作生成方法も探索しました。具体的には、事前に軌跡と動作をデータベースに大量保存する方法です。動作生成時にこれらのデータを再利用することで、現在この方法は一部の実装が完成されており、検証段階にあります。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
本年度の研究成果は、以下の2つの問題を克服しました。まず、データの入手が不便であるという問題です。次に、データの損失の問題です。第一の問題に対して、指示棒を再開発し、uIMUモジュールやワイヤレス通信モジュールなどを加えました。そして、データの取得と保存能力を向上させました。第二の問題に対して、uIMUのデータとOptiTrackのデータを組み合わせ、学習予測法を採用して、欠落したデータを補完しました。これらの2つの問題を克服した後、初期の実験を行いました。実験の結果、分類後に異なる計算方法を使用して実験することは効果的ではないことがわかりました。これは、各方法ごとに制約を設定する必要があり、動作生成の柔軟性に悪影響を与えたためです。そこで、新しい方法を開発し、分類の目的をワークスペースの制約の獲得に単純し、制約パラメータを制御する確率生成方法に統一しました。これにより、理想的なシミュレーション結果が得られました。
|
今後の研究の推進方策 |
最終年の研究方向は、次の2つの点に焦点を当てています。まず、視覚センサを利用した情報取得に関するものです。この2年間、生成AIの発展は著しいものがあり、国際的な同僚の研究論文には、教示と生成AIに基づいたロボットの動作生成方法が多く登場しています。これらの方法の多くは視覚に基づいています。最終年では、指示棒をさらに更新する予定があります。指示棒に視覚センサーを導入し、OptiTrackを排除し、同時にuIMUを維持することで、より豊富な情報を取得したいと考えております。次に、直接的な動作生成と確率的な動作生成のバランスを探求するポイントです。現在、生成AIに基づいた方法は、ロボットの動作をうまく生成することができます。しかし、本研究と比較すると、これらの動作の目標は細かい制御が必要な動作ではありません。水を運んだり黒板を拭いたりするような、力と位置の両方の制約を考慮する必要がある詳細な制御が必要な場合には、他の手法が必要です。現在の提案手法と生成AI手法を組み合わせることが、この問題を解決するための有効な方法であり、今後の重点的な探求価値があります。
|