研究課題/領域番号 |
25870226
|
研究種目 |
若手研究(B)
|
研究機関 | 東京工業大学 |
研究代表者 |
小野寺 直幸 東京工業大学, 学術国際情報センター, 特任助教 (50614484)
|
研究期間 (年度) |
2013-04-01 – 2015-03-31
|
キーワード | 大規模並列計算 / GPU / ラージエディ・シミュレーション / 格子ボルツマン法 |
研究概要 |
本研究は次世代スーパーコンピュータの高密度実装に向けて、GPU(Graphics Processing Unit)を利用した熱流動・伝熱の連成解析手法を開発する事を目的としている。スーパーコンピュータの熱設計において、冷却能力の向上は高密度実装を可能とし、消費電力の削減に結びつくため非常に重要である。計算器のノード内には、演算器・ヒートシンク・電源などのさまざまなパーツが配置されており、高精度な熱流動・伝熱解析を実施するためには、ノード内全体の大域的な熱の流れと演算器周辺の局所的な熱の流れを捉えた大規模計算が必須となる。格子ボルツマン法は大規模流体計算に適した手法であると共に、計算器ノード内の複雑な構成物を含む流体現象にも適用可能である。しかし、通常の格子ボルツマン法では高いレイノルズ数の乱流解析は不可能であり、乱流モデルの適用が必須である。本研究では、ラージエディ・シミュレーションの乱流モデルであるコヒーレント構造スマゴリンスキーモデルを格子ボルツマン法に適用することで、高精度な乱流解析を可能とした。本計算手法は、東京工業大学のスーパーコンピュータ TSUBAME 2.0を利用した計算において、1,000台のGPUで149TFLOPS(単精度)、TSUBAME 2.5を用いた計算において、1,000台のGPUで298TFLOPS(単精度)の非常に高い実行性能を達成した。これにより、数十億(1000の3剰)以上の格子点を用いた大規模計算が実現可能となる。計算手法の検証として、流体と構造物を含む乱流現象の計算を行い、計算器ノード内の最大レイノルズ数を許容するレイノルズ数が10万以上の解析が可能である事を確認した。今年度に開発した計算手法を用いることで、次世代スパコンの高密度実装に向けた大規模計算が実現可能となることが期待される。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
研究計画にて提示した通り、「大規模計算にも適用可能なラージエディ・シミュレーションの乱流モデルの導入」、「複雑な構造物を含んだ流体解析」、「東京工業大学のスーパーコンピュータTSUBAMEのGPUを用いた大規模計算手法の確立」が達成された。また、TSUBAMEを用いた大規模並列計算では大きな進展が得られ、並列化によるノード間通信の最適化とGPU計算のカーネル関数の最適化により、TSUBAME 2.5において1,000台のGPUで298TFLOPS(単精度)の非常に高い実行性能を達成した。さらに、大規模計算では必須の「並列I/O処理の高速化」および「大規模データの可視化」等の周辺技術の構築により、来年度の次世代スパコンの高密度実装に向けた大規模計算が順調に推進できるものと考えている。
|
今後の研究の推進方策 |
本年度は次世代スパコンの高密度実装に向けて、演算器・ヒートシンクを含む計算器ノードの一部分および計算ノード全域に対して、大規模計算を実施することで演算器の限界冷却性能を明らかにすることを目指す。実際の計算器はさまざまな構成物から成り立っており、最も薄い構造物の大きさを考慮すると0.25mm程度の解像度の計算を実施する必要がある。TSUBAMEのThinノードの大きさは高さ90mm×幅241mm×奥行き約1,000mmであるため、ノード全体を含む解析においては約14億格子点程度(200台程度のGPU)で解析が可能である。計算ノード内の熱の流れを明らかにするために、ヒートシンクの形状や、基盤の熱伝導係数、熱源の熱流束等をパラメータとした解析を実施する。これにより、演算器の限界冷却性能が見極められることが期待される。また、GPUを搭載したペタスケールのスパコンは日本・米国・中国などで稼働しているが、100台以上のGPUを用いた大規模流体アプリケーションの例は少ないため、大規模計算分野や、流体工学分野へ最適化技術について貢献を目指す。得られた研究成果は、国内講演会や国際会議等で発表するとともに、論文発表を利用して社会へと発信していく。
|