平成14年度では、前年度に開発したボリュームデータ圧縮アルゴリズムの評価を行った。本アルゴリズムでは、ボリューム分割により生成したプロックに対し離散コサイン変換(DCT)を施す。各ブロックのDCT係数のうち交流成分をベクトルとして扱い、弱肉強食(LOJ)アルゴリズムを用いて生成した最適コードブックにより、これをベクトル量子化する。この結果、各ブロックは最も似ているコードベクトルのインデックスにより表現される。コードブックに対しては、JPEGの交流成分圧縮と同様にジグザグ方向の差分値をスカラ量子化した後にハフマン符号化を行い、データサイズを減少させる。また、残りのDCT係数である直流成分に対しても、隣接ブロック間の差分にハフマン符号化を適用し、データサイズを減少させる。 本アルゴリズムの優れている点は、周波数空間における交流成分にのみベクトル量子化を行う点である。これにより、特に情報量の大きな直流成分の劣化を防ぎ比較的誤差の少ないデータ圧縮を実現する。また、コードブックと直流成分のハフマン符号化により、冗長な表現を減少させている。幾何学的三次元ボリュームの圧縮実験により、従来の圧縮手法と比べ提案手法が誤差と圧縮率の点で優れていることを示した。 本アルゴリズムでは、コードブック生成に効率の良いLOJアルゴリズムを適用し高速な処理を指向しているが、このLOJアルゴリズムを並列化することにより、データサイズにスケーラブルな圧縮処理を実現した。分散メモリ型商用並列計算機や構築したPCクラスタを用いた並列コードブック生成実験により、台数の8割に近い並列処理効率を達成可能であることを示した。 以上の結果から、ベクトル量子化によるデータ圧縮とその並列処理は、脳診断支援システムにおいて巨大な三次元データを実用的な時間内に扱うための基礎技術として有効であると結論する。これは重要な知見である。
|