研究課題/領域番号 |
22K12079
|
研究機関 | 工学院大学 |
研究代表者 |
陳 キュウ 工学院大学, 情報学部(情報工学部), 教授 (00400292)
|
研究期間 (年度) |
2022-04-01 – 2025-03-31
|
キーワード | シーン認識 / ディープラーニング / ディープニューラルネットワーク / 移動ロボット / アテンション機構 |
研究実績の概要 |
近年、深層学習の方法、特に畳み込みネットワーク(CNN)の登場により、シーン認識には大きな精度向上が実現しているが、移動ロボットに向けて動的なシーン認識手法がほとんど提案されていない。強力な動的シーン認識モデルを構築するためには、時間情報と空間情報の両方を抽出する必要がある。静止画像ベースの特徴抽出手法を利用して動的シーンの認識には理論上の限界があるので、精度面ではまだ十分とは言えない。 本研究では、より良いシーン表現のために、静止画像だけではなく、ビデオ、キーフレーム画像の深層特徴情報を抽出し、特徴統合による高精度な動的シーン認識手法を試みた。そして、今年度の研究成果は以下のようになる。 Video Transformerがビデオ内のフレームの時間的および空間的な相互作用を考慮することで、ビデオシーケンスの特徴を学習できるため、入力されたビデオストリームの時空間情報が含まれる深層特徴を生成した。また、ビデオストリームから抽出されたキーフレームのグローバル特徴情報と局所特徴情報をそれぞれTransformerと畳み込みニューラルネットワーク(CNN)により抽出して統合することにより、シーン画像の空間的な情報が表すことができた。 さらに、ノイズのあるデータセットを用いたネットワークの学習方法についても検討した。人間のラベル付けデータはしばしば曖昧であり、不正確なラベルが存在するため、精度を向上させる新しい手法GOODを提案した。具体的には、物体検出に勾配最適化を適用する手法として、勾配降下法を修正し、不正確なラベルの影響を軽減した。公開データセットPASCAL VOC 2012とCOCO 2017での検証実験により、提案手法の効果が示された。特に、PASCAL VOC 2012では9.4%、COCO 2017では5.2%の改善が実現された。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
時間情報と空間情報の両方を抽出して動的シーン特徴統合手法、及び高精度シーン認識手法を確立し、計画通りに研究を進めている。研究計画書で立てた目標を明確にし、必要なデータや情報を収集しながら、計画的かつ効率的な研究を進めている。 また、研究の方針や手法について、定期的に検討を重ね、適切な修正を加えながら、研究の方向性を確実にしていることも一因として挙げられる。引き続き、必要な情報の収集を行いながら、研究を推進していく。
|
今後の研究の推進方策 |
これからの研究は当初の予定通りで、動的シーン認識手法の検討、また、動的シーン認識システムの構築を試みる予定である。高精度シーン認識手法の研究において、移動ロボットに提案手法を実装し、検証システムを構築する。インターネット上で収集および作成したシーンの各種データセットなどでデータベースを構築し、購入したワークステーションにて動的シーン認識手法の確立と検討し、さらに移動ロボットに実際なシステムを実装し、稼働させて検証実験を行う。
|
次年度使用額が生じた理由 |
次年度使用額が生じた理由:今年度に、アテンション機構と2D-CNNによる生成したビデオの深層特徴でシーン認識実験を行うとともに国際会議において発表する予定であったが、Video Transformerがビデオ内のフレームの時間的および空間的な相互作用を考慮できるので、計画を変更してその解析を行うこととしたため、未使用額が生じた。 使用計画:このため、時空間情報が含まれる深層特徴の解析と国際会議での発表を次年度に行うこととし、未使用額はその経費に充てることとしたい。
|