Project/Area Number |
21K17768
|
Research Category |
Grant-in-Aid for Early-Career Scientists
|
Allocation Type | Multi-year Fund |
Review Section |
Basic Section 61010:Perceptual information processing-related
|
Research Institution | Tokyo University of Science |
Principal Investigator |
Maeda Yoshihiro 東京理科大学, 工学部電気工学科, 講師 (80843375)
|
Project Period (FY) |
2021-04-01 – 2024-03-31
|
Project Status |
Completed (Fiscal Year 2023)
|
Budget Amount *help |
¥4,680,000 (Direct Cost: ¥3,600,000、Indirect Cost: ¥1,080,000)
Fiscal Year 2023: ¥1,560,000 (Direct Cost: ¥1,200,000、Indirect Cost: ¥360,000)
Fiscal Year 2022: ¥1,950,000 (Direct Cost: ¥1,500,000、Indirect Cost: ¥450,000)
Fiscal Year 2021: ¥1,170,000 (Direct Cost: ¥900,000、Indirect Cost: ¥270,000)
|
Keywords | 深層学習 / 計算機アーキテクチャ / 高能率計算 / 高速化 / ハードウェアアクセラレーション |
Outline of Research at the Start |
本研究課題では,深層学習の学習過程の高速化を実現する基盤構築を目的とする.深層学習は,社会的基盤となりつつあるが,学習過程に多大な計算リソースと計算時間を必要とする.この計算リソースと計算時間の削減するために,計算量削減などのアルゴリズムの観点と専用演算器の有効活用などの計算機アーキテクチャの観点に着目する.これらの観点は,不可分な関係を持っている.本研究では,それぞれの観点を協調させることによって高速化を実現し,体系立てた基盤を構築することを目指す.
|
Outline of Final Research Achievements |
In this research, we aimed to accelerate the training process of deep neural networks (DNNs) used in various fields. We focused on DNN optimization techniques such as pruning and quantization, which help simplify DNN models. Considering computer architecture viewpoints, our study explored how these techniques can be applied during training. We found that pruning and quantization-based algorithms can accelerate the training process for DNN by leveraging computer architecture.
|
Academic Significance and Societal Importance of the Research Achievements |
本研究は, Deep neural network(DNN)の学習の高速化について検討をするものである.DNNは,画像処理分野では物体認識や超解像など様々なコンピュータビジョンにおけるタスクの更なる高精度化を実現している.DNNの活躍は画像処理分野だけにとどまらず,様々な研究領域での活用や産業界においても商用利用されている.本研究によって学習の高速化が実現でき,更なる活用の幅が広がるものである.
|