研究課題/領域番号 |
22K12079
|
研究機関 | 工学院大学 |
研究代表者 |
陳 キュウ 工学院大学, 情報学部(情報工学部), 教授 (00400292)
|
研究期間 (年度) |
2022-04-01 – 2025-03-31
|
キーワード | シーン認識 / ディープラーニング / ディープニューラルネットワーク / 移動ロボット / アテンション機構 |
研究実績の概要 |
近年、深層学習の方法、特に畳み込みネットワーク(CNN)の登場により、シーン認識には大きな精度向上が実現しているが、移動ロボットに向けて動的なシーン認識手法がほとんど提案されていない。強力な動的シーン認識モデルを構築するためには、時間情報と空間情報の両方を抽出する必要がある。静止画像ベースの特徴抽出手法を利用して動的シーンの認識には理論上の限界があるので、精度面ではまだ十分とは言えない。 本研究では、より良いシーン表現のために、静止画像だけではなく、ビデオ、キーフレーム画像の深層特徴情報を抽出し、特徴統合による高精度な動的シーン認識手法を試みた。そして、今年度の研究成果は以下のようになる。 本研究において、動的シーン認識手法を実現するため、移動ロボットの視覚システムに入力されたビデオストリームをサンプリングし、時空間、チャンネル、及びモーションという3つのアテンション機構と2次元畳み込みニューラルネットワーク(2D-CNN)による時空間情報が含まれる深層特徴を生成する。また、ビデオストリームからキーフレームを抽出して、キーフレーム画像のグローバル特徴情報と局所特徴情報をそれぞれ抽出して統合することにより、シーン画像の空間的な情報が表すことができた。 また、ノイズのあるデータセットを用いたネットワークの学習方法についても検討し、精度を向上させる新しい手法TCC-netを提案した。まず、データ前処理の段階で新しい損失関数「コントラダクトリー損失」を用いることで、ノイズに対して頑健な学習ができるようにする。そして、トレーニング段階では、クリーンなデータセットは必要なく、2つの事前学習モデルを用いて、相互に学習させることで、他の手法よりより高い精度を実現した。実験結果では、特に80%の対称ノイズを持つ合成Cifar10では12.59%の改善が達成された。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
より良いシーン表現するための深層特徴情報を抽出して統合する手法を確立し、計画通りに研究を進めている。研究計画書で立てた目標を明確にし、必要なデータや情報を収集しながら、計画的かつ効率的な研究を進めている。 また、研究の方針や手法について、定期的に検討を重ね、適切な修正を加えながら、研究の方向性を確実にしていることも一因として挙げられる。引き続き、必要な手続きや情報の収集を行いながら、研究を推進していく。
|
今後の研究の推進方策 |
これからの研究は当初の予定通りで、動的シーン認識手法の確率及び検討、また、動的シーン認識システムの構築を試みる予定である。高精度シーン認識手法の研究において、移動ロボットに提案手法を実装し、検証システムを構築する。インターネット上で収集および作成したシーンの各種データセットなどでデータベースを構築し、購入したワークステーションにて動的シーン認識手法の確立と検討し、さらに移動ロボットに実際なシステムを実装し、稼働させて検証実験を行う。
|