研究課題/領域番号 |
19K12916
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分90150:医療福祉工学関連
|
研究機関 | 大阪工業大学 |
研究代表者 |
奥野 弘嗣 大阪工業大学, 情報科学部, 准教授 (30531587)
|
研究期間 (年度) |
2019-04-01 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
4,290千円 (直接経費: 3,300千円、間接経費: 990千円)
2021年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2020年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2019年度: 1,820千円 (直接経費: 1,400千円、間接経費: 420千円)
|
キーワード | ニューロモーフィック / 画像処理 / ロボットビジョン / 手話認識 / 人工知能 / 視覚神経 / ジェスチャー認識 |
研究開始時の研究の概要 |
本研究では,手話やジェスチャー等の動き情報の識別を,リアルタイムで行える小型・低消費電力なシステムの開発を行う.具体的には,脳の視覚野の神経回路モデルを電子回路化することにより,効率的な時空間視覚特徴抽出を実現し,スパイキング・ニューラルネットワーク(神経の時間特性も模擬したニューラルネットワーク)を電子回路化することにより,時空間特徴のリアルタイムでの識別を実現する.
|
研究成果の概要 |
本研究では,手話や物体の認識に適した視覚特徴量抽出アルゴリズムの開発,このアルゴリズムのディジタル回路実装,及びこのアルゴリズムを用いた場合の認識精度の検証を行った.このアルゴリズムは,時空間視覚特徴の抽出,及びこの特徴を利用した視覚情報認識を効率よく行っている生体の視覚神経系に発想を得たものである.また,ここで得られた特徴量を用いることで,ニューラルネットワークによる指文字・物体認識の精度が向上することを確認した.
|
研究成果の学術的意義や社会的意義 |
本研究の成果は,視覚神経系の学んだ視覚特徴量の利用によって,比較的小規模なニューラルネットワークでも高い識別精度が得られること,並びにこの特徴量抽出回路が,限られた回路規模で実現できることを示した.この結果は,エッジデバイスでの人工知能の運用を加速させるものである.近年目覚ましい成果を上げてきた深層学習をベースとした人工知能は,処理負荷が大きい大規模なニューラルネットワークの利用を前提としているため,処理能力が乏しいエッジデバイスでの運用は制限されてきた.本研究で得られた特徴抽出回路と検証結果は,この状況を改善するものである.
|