研究課題/領域番号 |
21K17768
|
研究種目 |
若手研究
|
配分区分 | 基金 |
審査区分 |
小区分61010:知覚情報処理関連
|
研究機関 | 東京理科大学 |
研究代表者 |
前田 慶博 東京理科大学, 工学部電気工学科, 講師 (80843375)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
研究課題ステータス |
完了 (2023年度)
|
配分額 *注記 |
4,680千円 (直接経費: 3,600千円、間接経費: 1,080千円)
2023年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
2022年度: 1,950千円 (直接経費: 1,500千円、間接経費: 450千円)
2021年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
|
キーワード | 深層学習 / 計算機アーキテクチャ / 高能率計算 / 高速化 / ハードウェアアクセラレーション |
研究開始時の研究の概要 |
本研究課題では,深層学習の学習過程の高速化を実現する基盤構築を目的とする.深層学習は,社会的基盤となりつつあるが,学習過程に多大な計算リソースと計算時間を必要とする.この計算リソースと計算時間の削減するために,計算量削減などのアルゴリズムの観点と専用演算器の有効活用などの計算機アーキテクチャの観点に着目する.これらの観点は,不可分な関係を持っている.本研究では,それぞれの観点を協調させることによって高速化を実現し,体系立てた基盤を構築することを目指す.
|
研究成果の概要 |
本研究では,幅広い分野で活用されるDeep neural network(DNN)の学習における高速化について検討を行った.具体的には,DNNモデルの軽量化手法であるプルーニングや量子化と呼ばれるアルゴリズムに対して,計算機アーキテクチャの観点も踏まえた学習時にも活用できるDNN軽量化について検討を行った.検討の結果,プルーニングや量子化を基にした計算機アーキテクチャの恩恵をうけることが可能なアルゴリズムによってDNNの学習の高速化を実現できることを示した.
|
研究成果の学術的意義や社会的意義 |
本研究は, Deep neural network(DNN)の学習の高速化について検討をするものである.DNNは,画像処理分野では物体認識や超解像など様々なコンピュータビジョンにおけるタスクの更なる高精度化を実現している.DNNの活躍は画像処理分野だけにとどまらず,様々な研究領域での活用や産業界においても商用利用されている.本研究によって学習の高速化が実現でき,更なる活用の幅が広がるものである.
|