• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2020 Fiscal Year Annual Research Report

Gap Analysis and Diagnosis for Mechanical Assembly using X-rays CT Scanning

Research Project

Project/Area Number 18H01354
Research InstitutionThe University of Tokyo

Principal Investigator

鈴木 宏正  東京大学, 大学院工学系研究科(工学部), 教授 (40187761)

Project Period (FY) 2018-04-01 – 2021-03-31
Keywords産業用X線CT装置 / リバースエンジニアリング / アセンブリ解析 / 画像処理
Outline of Annual Research Achievements

機械のアセンブリ品を産業用X線CT装置によりスキャンした3次元CT画像を用いて、部品間の隙間を評価・検査する手法について研究を行った。初年度は、2部品の間の隙間を求めるためのマルチフェーズ陰関数表現の計算方法を基礎として、異部品間の隙間の中立面を計算する方法とプロトタイププログラムを開発した。2年次は、これを効率化するために、距離場の計算に、FAST MARCHING法と呼ばれる高速な手法を適用した。これらの結果、隙間が大きい部分では隙間量を正しく計算できることが分かったが、一方で、部品がほぼ接触に近い状態にある部分において、隙間の大きさがX線CT画像の画素の大きさと同程度の場合に、計算ができなかったため、その問題の分析を行い、新しい手法の検討を行った。問題は、マルチフェーズ陰関数で、各部品からの距離をCT画像の置かれた格子空間で計算するが、隙間が小さい場合、つまり空気層が薄くなる場合にはボケが生じ、境界を抽出することが難しいことであった。
そこで、これを改善する手法の検討を行った。本手法は、中立面の法線方向、すなわち隙間方向にCT値をプロービングして、その変化量が極大になる点(エッジ点)を検出するものである。実験を通じて、検出可能な隙間量は、CTデータの画質などによる影響が大きく、それを回避して汎用的に検出能力を高めることは難しかった。ただし現実的な改善方法として、CT画像の分解能を上げる、すなわち拡大して撮像することで改善することができる。本手法を実部品に適用し、これまで実現ができなかった組立品の隙間量の分布を一括して評価することができることを示した。

Research Progress Status

令和2年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和2年度が最終年度であるため、記入しない。

Research Products

(2 results)

All 2021 2020

All Presentation (2 results) (of which Int'l Joint Research: 2 results)

  • [Presentation] A Method for Void Inspection in X-ray CT Images Based on Golden Part Generated from a Set of Accepted Parts2021

    • Author(s)
      Hiromasa Suzuki, Xiangning Mao, and Yutaka Ohtake
    • Organizer
      19th International Conference on Geometry and Graphics (ICGG2020)
    • Int'l Joint Research
  • [Presentation] Gap Generation for 3D Printed Assembly by Using Signed Distance Fields2020

    • Author(s)
      Junhyuk Lee, Yutaka Ohtake, Tatsuya Yatagawa, Hiromasa Suzuki
    • Organizer
      18th International Conference on Precision Engineering (ICPE2020)
    • Int'l Joint Research

URL: 

Published: 2021-12-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi