研究課題/領域番号 |
19K20297
|
研究種目 |
若手研究
|
配分区分 | 基金 |
審査区分 |
小区分61010:知覚情報処理関連
|
研究機関 | 九州大学 |
研究代表者 |
THOMAS DIEGO 九州大学, システム情報科学研究院, 助教 (10804651)
|
研究期間 (年度) |
2019-04-01 – 2021-03-31
|
研究課題ステータス |
完了 (2020年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2020年度: 1,430千円 (直接経費: 1,100千円、間接経費: 330千円)
2019年度: 2,730千円 (直接経費: 2,100千円、間接経費: 630千円)
|
キーワード | RGB-D SLAM / Aerial 3D capture / Dynamic scene / Aritificial intelligence / Deep neural network / 3D human body / Aerial drone / outdoor scene / 3D reconstruction / sensor fusion / RGB―D SLAM / Unmanned vehicle / dynamic modeling / real-time / unmanned vehicle |
研究開始時の研究の概要 |
Various sensors from unmanned aerial vehicles will be unified to reconstruct large-scale outdoor dynamic 3D scenes in real-time. (1)Compact RGB and depth cameras will be fused to incrementally reconstruct outdoor scenes in a coarse-to-fine strategy. (2)NURBS surfaces will maintain the large-scale evolving 3D model while displacement mapping will generate detailed 3D geometry. (3)Physical and semantic constraints in the scene will be used to enforce at all time a globally consistent 3D reconstruction with loops closed and minimal registration errors.
|
研究成果の概要 |
3Dマッピングのために、計算速度を上げることなくデプス画像をロバストかつ正確に融合するための新しい方法を提案しました。また、動く人のようなダイナミックなシーンにも対応できる方法を提案しました。 デプス情報が利用できない状況を処理するために、単一のRGB画像からの3D形状推定の方法を提案しました。服を着た人間の詳細な形状を再構築するための新しいディープニューラルネットワークを提案しました。 RGB-Dデータをキャプチャできる民生用空中ドローンを搭載した新しい3Dスキャンシステムを提案しました。提案するシステムは、ポータブルバッテリーとRGB-Dカメラを搭載したミニコンピューターで構成されています。
|
研究成果の学術的意義や社会的意義 |
単一の画像から人体の緻密で詳細な3Dモデルを作成する最初の方法の1つを提案しました。 コンピュータビジョンのトップ国際会議で私たちの仕事を発表し、コードを一般に公開しました。 制御されていない環境での3Dシーン再構築の新しい可能性を開きます。 このシステムを消費者向けの空中ドローンに簡単に装備するためのソリューションと、それを制御するソフトウェアを紹介します。 実世界のデータをキャプチャし、システムを使用していくつかの最先端のRGB-DSLAM技術を評価しました。 空中3Dスキャンとマッピングの研究開発を後押しできるように、すべてのデータとコードをコミュニティで公開しました。
|