研究概要 |
昨年度から継続して,今年度もヘテロジニアス型クラスタシステムの増強を行った。その結果,4-CPU搭載のSMP:1台を含むワークステーション4台(すべてSPARCアーキテクチャのSolarisマシン),および,パソコン10台(すべてx86アーキテクチャのLinuxマシン)から成る並列実行環境が構築できた。マシン間の相互接続には100Base-TXのLANを使用し,この実行環境において,MPIライブラリを利用したメッセージパッシング型の並列プログラム,あるいは,OpenMPを利用したマルチスレッド型の並列プログラムなど,各種の開発を行った。そして,データ分割とそれに伴うメッセージ通信パターンの特徴について,種々解析を行った。また,各マシンの単体性能が一様ではないので,十分な並列処理性能を発揮させるための負荷分散制御手法についても考察した。 本実行環境のような分散メモリ型システムでは,通常は明示的なメッセージパッシング型のプログラミングパラダイムを採用することが多く,本年度も,そのための標準仕様であるMPIを用いた開発を行った。その結果,このパラダイムの有効性にも一定の限界があることが明らかになった。すなわち,MPIによる並列プログラミングは,性能を重視した場合には確かに有効であるものの,中規模以上のSPMD型プログラムを作成する際の生産性が非常に低い。特に,多種多様なメッセージ通信用関数の中から最適な組み合わせをどのように選択するか,データ分割手法の選択も含めて,そのための支援環境がほとんど皆無である。今後は,OpenMPのような論理共有メモリモデルとの融合をいかにして図り,それをビジュアルな開発支援環境に統合していくかが課題となる。
|