• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Scalable System Software for Machine Learning on Heterogeneous Parallel Computing Environments

Research Project

Project/Area Number 20H04165
Research Category

Grant-in-Aid for Scientific Research (B)

Allocation TypeSingle-year Grants
Section一般
Review Section Basic Section 60050:Software-related
Research InstitutionTokyo Institute of Technology

Principal Investigator

Endo Toshio  東京工業大学, 学術国際情報センター, 教授 (80396788)

Project Period (FY) 2020-04-01 – 2023-03-31
Project Status Completed (Fiscal Year 2022)
Budget Amount *help
¥17,550,000 (Direct Cost: ¥13,500,000、Indirect Cost: ¥4,050,000)
Fiscal Year 2022: ¥4,940,000 (Direct Cost: ¥3,800,000、Indirect Cost: ¥1,140,000)
Fiscal Year 2021: ¥5,980,000 (Direct Cost: ¥4,600,000、Indirect Cost: ¥1,380,000)
Fiscal Year 2020: ¥6,630,000 (Direct Cost: ¥5,100,000、Indirect Cost: ¥1,530,000)
Keywords深層学習 / GPU / メモリ階層 / DSL / 並列計算 / マルチコア / 局所性 / 並列処理 / 機械学習 / 異種アーキテクチャ / プログラミング
Outline of Research at the Start

昨今爆発的に機械学習・深層学習の需要が増し、深層学習フレームワークや対話的処理環境などの普及により、機械学習処理へ様々なプレイヤーが参入する敷居は大きく下がっている。その大規模化・高速化を図るためにはアクセラレータを含む異種プロセッサや多数ノードによる並列化が必要であるが、現状では個別のアルゴリズムごとの対応が必要になり、新規アルゴリズムを提案する場合に大規模化・高速化が滞る傾向にある。そこで本研究では先進プロセッサアーキテクチャや複数ノードによる速度性能と異種メモリによる演算規模を、新規アルゴリズムからも容易に享受できるような、基盤ソフトウェア技術の研究開発を行う。

Outline of Final Research Achievements

Deep learning is computationally intensive and requires lots of high performance processors such as GPUs. However, in order to achieve high performance, it is necessary to consider the characteristics of complex computer architectures, which hinders the incorporation of new learning algorithms. This research targets both high performance and software development cost reduction. As one of the integrated results, we constructed a hybrid parallel learning framework to improve learning on a supercomputer with many GPUs.

Academic Significance and Societal Importance of the Research Achievements

LLMの隆盛に代表されるように、機械学習処理には社会を変革する力があると考えられるが、アルゴリズムの改良と大規模な計算機アーキテクチャを活用するための技術の双方が必要である。本研究では主に後者の立場から、GPUなどのプロセッサ内の処理効率化と、多数GPU搭載計算機をよどみなく活用するフレームワーク等を実現した。これら基盤技術により、LLMのさらなる改善への応用が期待される。

Report

(4 results)
  • 2022 Annual Research Report   Final Research Report ( PDF )
  • 2021 Annual Research Report
  • 2020 Annual Research Report
  • Research Products

    (9 results)

All 2023 2022 2021

All Journal Article (3 results) (of which Peer Reviewed: 3 results) Presentation (6 results)

  • [Journal Article] Pyramid Swin Transformer: Different-Size Windows Swin Transformer for Image Classification and Object Detection2023

    • Author(s)
      Wang Chenyu、Endo Toshio、Hirofuchi Takahiro、Ikegami Tsutomu
    • Journal Title

      Proceedings of the 18th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications

      Volume: Vol 5 Pages: 583-590

    • DOI

      10.5220/0011675800003417

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed
  • [Journal Article] Efficient Stencil Computation with Temporal Blocking by Halide DSL2022

    • Author(s)
      Aikawa Hiroki、Endo Toshio、Yuki Tomoya、Hirofuchi Takahiro、Ikegami Tsutomu
    • Journal Title

      proceedings of 20th IEEE International Symposium on Parallel and Distributed Processing with Applications (ISPA)

      Volume: - Pages: 870-877

    • DOI

      10.1109/ispa-bdcloud-socialcom-sustaincom57177.2022.00116

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed
  • [Journal Article] Speed-Up Single Shot Detector on GPU with CUDA2022

    • Author(s)
      Wang Chenyu、Endo Toshio、Hirofuchi Takahiro、Ikegami Tsutomu
    • Journal Title

      proceedings of 23rd ACIS International Summer Virtual Conference on Software Engineering, Artificial Intelligence, Networking and Parallel/Distributed Computing (SNPD2022-Summer)

      Volume: - Pages: 89-106

    • DOI

      10.1007/978-3-031-19604-1_7

    • ISBN
      9783031196034, 9783031196041
    • Related Report
      2022 Annual Research Report
    • Peer Reviewed
  • [Presentation] 機械学習を用いた音声処理に向けたデータ拡張手法の研究2022

    • Author(s)
      丸山 翼, 池上 努,遠藤 敏夫,広渕 崇宏
    • Organizer
      音響・超音波サブソサイエティ合同研究会
    • Related Report
      2022 Annual Research Report
  • [Presentation] 負荷分散を改善したハイブリッドパイプライン並列深層学習手法2022

    • Author(s)
      細木 隆豊, 遠藤 敏夫,広渕 崇宏,池上 努
    • Organizer
      並列/分散/協調処理に関するサマーワークショップ(SWoPP2022)
    • Related Report
      2022 Annual Research Report
  • [Presentation] タンパク質構造解析システムAlphafoldの実行時ファイルステージングを用いた高速化2022

    • Author(s)
      大沢 泰生, 遠藤 敏夫, 野村 哲弘
    • Organizer
      並列/分散/協調処理に関するサマーワークショップ(SWoPP2022)
    • Related Report
      2022 Annual Research Report
  • [Presentation] ラムダ式を用いる移植性の高い並列プログラムの実装とCPU・GPU上の評価2022

    • Author(s)
      瓜生 侑, 遠藤 敏夫
    • Organizer
      並列/分散/協調処理に関するサマーワークショップ(SWoPP2022)
    • Related Report
      2022 Annual Research Report
  • [Presentation] 時間ブロッキングを用いたステンシル計算のHalide言語による高性能実装と評価2021

    • Author(s)
      相川 洋貴,遠藤 敏夫,幸 朋矢,広渕 崇宏
    • Organizer
      並列/分散/協調処理に関するサマーワークショップ(SWoPP2021)
    • Related Report
      2021 Annual Research Report
  • [Presentation] GPUクラスタにおけるハイブリッド並列DNN学習のボトルネック分析と改良2021

    • Author(s)
      細木 隆豊,野村 哲弘,遠藤 敏夫
    • Organizer
      並列/分散/協調処理に関するサマーワークショップ(SWoPP2021)
    • Related Report
      2021 Annual Research Report

URL: 

Published: 2020-04-28   Modified: 2024-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi