研究課題/領域番号 |
23K11144
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61010:知覚情報処理関連
|
研究機関 | 東京工業大学 |
研究代表者 |
伊藤 泉 東京工業大学, 工学院, 助教 (90583435)
|
研究期間 (年度) |
2023-04-01 – 2026-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
3,900千円 (直接経費: 3,000千円、間接経費: 900千円)
2025年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2024年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2023年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
|
キーワード | 離散コサイン変換 / 正負符号 / 畳み込みニューラルネットワーク / 高速化 / 量子化 |
研究開始時の研究の概要 |
深層学習の研究開発及び運用には,膨大な電力を使用することが近年問題となっている.本研究では,畳み込みニューラルネットワーク(CNN)を用いたモデルの開発及び運用時の電力の低減を目的とする.この目的のため,離散コサイン変換(DCT)の特性を利用して,大規模なCNNに内在する冗長性を排除し,学習・推論時の膨大な演算量,及びメモリ使用量を大幅に削減する手法を解明する.本研究により,CNNの学習・推論が,低消費電力で,かつ高速に実行できるため,エッジAIへの応用が期待できる.
|
研究実績の概要 |
画像に離散コサイン変換(DCT)を適用し,画像のDCT係数を利用して行う畳み込みニューラルネットワーク(CNN)システムを構築した.一般にDCT領域における畳み込み演算は,画像サイズが小さいと精度及び時間効率が悪くなるため,画像サイズが異なる複数の画像データベースを利用することにより,構築したCNNを用いて行うDCT領域を利用する畳み込み演算にとって最適な画像サイズを調査した.DCT領域の畳み込み演算法は,画像の上下・左右を反転したフィルタとの畳み込み演算結果を同時に得ることができるため,この性質を利用することによりフィルタ数の削減を試みた.さらに,フィルタサイズ及びフィルタ数により,学習時間及び認識精度が異なるため,最適なフィルタのサイズ及び数を調査した.また,CNNにおける過学習を回避するための手法として,学習時にCNNの中間層のニューロンをランダムに選択するドロップアウトの影響を調査した.次に,画像及びフィルタのDCT係数の正負符号のみを用いて,畳み込み演算の入力を二値化し,DCT領域の畳み込み演算を論理演算に変更するシステムを構築した.各層のニューロンの反応率やアクティベーションの分布,学習・推論時の損失と精度の調査を行なっているところである.また,各層のニューロンの数,バッチサイズ,及び学習係数などのハイパーパラメータの調整などを行い,DCT係数を用いて行うCNNの最適な構造を調査している.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
各層のニューロンの数,バッチサイズ,及び学習係数などのハイパーパラメータの調整,フィルタのサイズや数の違い,様々な画像サイズのデータベースの利用など,各組み合わせによる畳み込みニューラルネットワーク(CNN)システムの学習及び推論の結果の取得に時間を要し,やや遅れている.
|
今後の研究の推進方策 |
引き続き,各層のニューロンの反応率やアクティベーションの分布,学習・推論時の損失と精度の調査を行なった後,CNNにおけるDCT正負符号の利用とその性能解析及び量子化誤差の伝搬解析,DCTの特性を利用したCNNの軽量化手法の評価を行っていく.
|