研究課題/領域番号 |
18K11327
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分60090:高性能計算関連
|
研究機関 | 成蹊大学 |
研究代表者 |
緑川 博子 成蹊大学, 理工学部, 客員研究員 (00190687)
|
研究期間 (年度) |
2018-04-01 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
4,290千円 (直接経費: 3,300千円、間接経費: 990千円)
2020年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2019年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2018年度: 2,470千円 (直接経費: 1,900千円、間接経費: 570千円)
|
キーワード | 分散共有メモリ / 遠隔メモリ / クラスタ / 仮想共有メモリ / マルチノード並列処理 / PGAS / 分散メモリ / メモリアドレス空間 / 分散共有メモリシステム / 分散メモリランタイムシステム / 分散メモリ型超並列計算システム / 計算機クラスタ / 遠隔メモリアクセス / 大規模共有アドレス空間 / マルチノード・マルチコア並列処理 / 並列プログラミングモデル / メモリ / マルチコア並列処 / 高性能計算 / マルチコア並列処理 |
研究成果の概要 |
分散メモリ型の超並列計算システムにおいて, 巨大な大域共有メモリ(大規模仮想アドレス空間)を実現するランタイムシステムmSMSを開発し, ローカル/リモートメモリの区別なくデータにアクセスできるプログラミング環境を構築した. 典型的な科学技術計算では, 従来のメッセージパッシング型(MPI)プログラムに比べ, プログラムの作成が容易な上, 高い性能が得られる. また1つの計算ノードメモリには収まらない大規模N体問題では, この大域共有メモリに大規模グローバルツリーを作りBarnes-Hutアルゴリズムを実行可能で, MPIによる実装に比べ, プログラム開発の生産性を飛躍的に向上させた.
|
研究成果の学術的意義や社会的意義 |
スーパーコンピュータでは,複数の計算ノードをネットワークで接続し,並列計算により高速処理を行なっている,しかし,計算ノードはそれぞれ独立のメモリとアドレス空間を持ち,他の計算ノードのメモリにあるデータ(遠隔データ)をアクセスするには,特別なプログラムインターフェースを必要とする.多数の計算ノードを用いた並列処理では,プログラム記述は非常に複雑でプログラム開発は大きな負担となっている. このようなシステムにおいて,プログラム開発の生産性を高め,大域共有メモリ(大規模仮想アドレス空間)を実現するmSMSを開発し,ローカル/リモートメモリの区別なくデータにアクセスできるプログラミング環境を構築した.
|