360 Degree Disaster Perception
Project/Area Number |
18F18109
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 外国 |
Research Field |
Intelligent informatics
|
Research Institution | The University of Tokyo |
Principal Investigator |
淺間 一 東京大学, 大学院工学系研究科(工学部), 教授 (50184156)
|
Co-Investigator(Kenkyū-buntansha) |
PATHAK SARTHAK MAHESH 東京大学, 工学(系)研究科(研究院), 外国人特別研究員
|
Project Period (FY) |
2018-04-25 – 2020-03-31
|
Project Status |
Completed (Fiscal Year 2019)
|
Budget Amount *help |
¥2,300,000 (Direct Cost: ¥2,300,000)
Fiscal Year 2019: ¥1,100,000 (Direct Cost: ¥1,100,000)
Fiscal Year 2018: ¥1,200,000 (Direct Cost: ¥1,200,000)
|
Keywords | 全天球カメラ / 運動推定 / 3次元計測 |
Outline of Annual Research Achievements |
1. 災害環境における全天球ステレオカメラの運動推定及び3次元復元:災害現場では被害状況の把握を安全かつ迅速に行う必要があるため,環境を面で計測可能なカメラを用いた計測手法が有効である.一般的なカメラは視野が狭いが,全天球カメラの視野は360度であり,有効である.ただし全天球カメラでは,復元点の信頼度が方向によって大きく変化する.特に,エピポーラ線方向の復元点の信頼度は非常に低くなる傾向がある.そこで本研究は復元点の信頼度を考慮して,全天球ステレオカメラの運動推定及び3次元復元手法を構築した.
2. 災害環境の地図を用いた全天球カメラの位置姿勢推定:災害環境にドローンを導入する場合,初期位置が既知である必要があるが,屋内環境ではGPS等の利用が不可能である.そこで,本研究では映像情報のみを用いたIndoor Positioning Systemの研究開発を行った.ここでは,災害環境の直線モデルを既知情報として用いた.ドローンに搭載した全天球カメラで取得した映像中の2次元の直線情報と,環境地図中での3次元直線情報のマッチングによって,ドローンの6自由度位置姿勢を推定する手法を構築した.
3. 深層学習を用いた全天球カメラの運動推定・3次元復元のロバスト化:カメラの運動推定及び環境の3次元復元を行うために,一般的な方法では映像での特徴トラッキングがベースとなる.ここで,環境によって異なる特徴が必要になる場合がある.例えば屋内環境で直線以外は使えないことが多く.屋外環境では特徴点を使う場合が多い.このように環境に適した特徴を用いないと,カメラの運動推定・3次元復元が失敗する可能性がある.この問題を解決するため,特徴の設計をせず,データから学習可能な畳み込みニューラルネットワークを利用した.具体的には,全天球カメラの歪みを考慮した全天球畳み込みニューラルネットワークの研究開発を行った.
|
Research Progress Status |
令和元年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和元年度が最終年度であるため、記入しない。
|
Report
(2 results)
Research Products
(11 results)