Research on Dynamic Scene Recognition Algorithm for Autonomous Mobile Robot
Project/Area Number |
22K12079
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 61010:Perceptual information processing-related
|
Research Institution | Kogakuin University |
Principal Investigator |
陳 キュウ 工学院大学, 情報学部(情報工学部), 教授 (00400292)
|
Project Period (FY) |
2022-04-01 – 2025-03-31
|
Project Status |
Granted (Fiscal Year 2022)
|
Budget Amount *help |
¥4,290,000 (Direct Cost: ¥3,300,000、Indirect Cost: ¥990,000)
Fiscal Year 2024: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2023: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2022: ¥2,080,000 (Direct Cost: ¥1,600,000、Indirect Cost: ¥480,000)
|
Keywords | シーン認識 / ディープラーニング / ディープニューラルネットワーク / 移動ロボット / アテンション機構 |
Outline of Research at the Start |
未曾有の「超高齢社会」に急速に進む中、介護を始めとする様々な用途でサービスロボットの需要が高まっている。自律移動ロボットが自動で見回り・警備に当たるためには随時周囲の環境を認識する必要がある。これまではシーン認識は主に静止画像情報から行ってきたが、より精度の高いシーン認識を実現するため、本研究では、我々は静止画像だけではなく、複数アテンション機構を用いたディープニューラルネットワークの手法で効率よく動画像の時空間深層特徴情報を抽出し、またキーフレームから抽出された高度な空間深層特徴量との組み合わせで特徴統合による高度な動的シーン認識のモデルを確立し、高精度な動的シーン認識を実現する。
|
Outline of Annual Research Achievements |
近年、深層学習の方法、特に畳み込みネットワーク(CNN)の登場により、シーン認識には大きな精度向上が実現しているが、移動ロボットに向けて動的なシーン認識手法がほとんど提案されていない。強力な動的シーン認識モデルを構築するためには、時間情報と空間情報の両方を抽出する必要がある。静止画像ベースの特徴抽出手法を利用して動的シーンの認識には理論上の限界があるので、精度面ではまだ十分とは言えない。 本研究では、より良いシーン表現のために、静止画像だけではなく、ビデオ、キーフレーム画像の深層特徴情報を抽出し、特徴統合による高精度な動的シーン認識手法を試みた。そして、今年度の研究成果は以下のようになる。 本研究において、動的シーン認識手法を実現するため、移動ロボットの視覚システムに入力されたビデオストリームをサンプリングし、時空間、チャンネル、及びモーションという3つのアテンション機構と2次元畳み込みニューラルネットワーク(2D-CNN)による時空間情報が含まれる深層特徴を生成する。また、ビデオストリームからキーフレームを抽出して、キーフレーム画像のグローバル特徴情報と局所特徴情報をそれぞれ抽出して統合することにより、シーン画像の空間的な情報が表すことができた。 また、ノイズのあるデータセットを用いたネットワークの学習方法についても検討し、精度を向上させる新しい手法TCC-netを提案した。まず、データ前処理の段階で新しい損失関数「コントラダクトリー損失」を用いることで、ノイズに対して頑健な学習ができるようにする。そして、トレーニング段階では、クリーンなデータセットは必要なく、2つの事前学習モデルを用いて、相互に学習させることで、他の手法よりより高い精度を実現した。実験結果では、特に80%の対称ノイズを持つ合成Cifar10では12.59%の改善が達成された。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
より良いシーン表現するための深層特徴情報を抽出して統合する手法を確立し、計画通りに研究を進めている。研究計画書で立てた目標を明確にし、必要なデータや情報を収集しながら、計画的かつ効率的な研究を進めている。 また、研究の方針や手法について、定期的に検討を重ね、適切な修正を加えながら、研究の方向性を確実にしていることも一因として挙げられる。引き続き、必要な手続きや情報の収集を行いながら、研究を推進していく。
|
Strategy for Future Research Activity |
これからの研究は当初の予定通りで、動的シーン認識手法の確率及び検討、また、動的シーン認識システムの構築を試みる予定である。高精度シーン認識手法の研究において、移動ロボットに提案手法を実装し、検証システムを構築する。インターネット上で収集および作成したシーンの各種データセットなどでデータベースを構築し、購入したワークステーションにて動的シーン認識手法の確立と検討し、さらに移動ロボットに実際なシステムを実装し、稼働させて検証実験を行う。
|
Report
(1 results)
Research Products
(10 results)