• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

deep learningを利用した新たなbolus tracking法の開発

Research Project

Project/Area Number 21K15773
Research Category

Grant-in-Aid for Early-Career Scientists

Allocation TypeMulti-year Fund
Review Section Basic Section 52040:Radiological sciences-related
Research InstitutionKindai University

Principal Investigator

渡邊 翔太  近畿大学, 大学病院, 技術職員 (20824072)

Project Period (FY) 2021-04-01 – 2025-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥4,420,000 (Direct Cost: ¥3,400,000、Indirect Cost: ¥1,020,000)
Fiscal Year 2024: ¥390,000 (Direct Cost: ¥300,000、Indirect Cost: ¥90,000)
Fiscal Year 2023: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2022: ¥650,000 (Direct Cost: ¥500,000、Indirect Cost: ¥150,000)
Fiscal Year 2021: ¥2,470,000 (Direct Cost: ¥1,900,000、Indirect Cost: ¥570,000)
Keywordsdeep learning / bolus tracking / 内頚動脈領域検出 / CT値測定精度 / 領域判別 / 造影CT
Outline of Research at the Start

頭部造影CT検査では、適切なタイミングで撮影するためにbolus tracking (BT)法が利用されている。BT法は血管内のCT値を計測して撮影開始時間を決定する手法だが、CT値計測のために関心領域 (region of interest: ROI)を設定する必要がある。このROIは一定の箇所に設定するため、患者に体動が伴う場合、血管の位置がROIから外れてしまい、正しくCT値を計測できなくなる。そこで、本研究ではdeep learningを利用してBT画像から血管の領域を自動判定させ、ROIを用いずに血管のCT値を計測できる手法を開発し、真のCT値と比較して開発手法の精度を評価する。

Outline of Annual Research Achievements

頭部computed tomography angiography(CTA)では、頭部の血管形態を正しく把握するために、造影剤による造影効果に対して適切なタイミングで撮影する必要がある。撮影タイミングを予想するためには一般的にbolus tracking(BT)法が使用されるが、不穏症状を伴う患者の体動に対応して測定対象となる内頚動脈内のCT値を測定することはできない。そこで本研究ではdeep learningを利用したBT画像における内頚動脈を測定する手法を開発することを目的とした。従来のROIを設定して内頚動脈のCT値を計測する手法では患者の体動により測定値が異常となってしまうが、本研究を通じて自動的に内頚動脈を判定できれば体動に関わらず正常なCT値を測定できると考えられる。
これまでの検証から、deep learningにおけるconvolutional neural networkの構造にU-net構造を使用することで、精度よく内頚動脈の領域を検出できていた。network構造は適切なものが選択されていると判断したが、学習条件には検討の余地があるため、エポック数やバッチサイズ、損失関数などを変更して最適な学習となるように調節をおこなった。しかし、学習条件の変更による顕著な改善は認めなかった。現段階でほとんどの内頚動脈は判別可能であり、臨床症例においても問題のない精度に到達できていると考えられる。一方で、deep learningのnetwork構造や学習条件に関する発展はめざましく、新しい情報が継続的に更新されているため、関連学会や論文の情報を収集し、本研究にも応用可能か検討し続けていく必要がある。

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

deep learningの領域判別に利用されるU-net構造を用いることで、bolus tracking画像から内頚動脈領域を検出することができた。convolutional neural networkの構造決定には多くの時間を要すると予想していたが、適したnetworkを予想よりも早く構築できた。エポック数やバッチサイズ、損失関数など学習条件を変更してさらなる改善を試みたが、顕著な改善は認めず、臨床使用にはおおむね問題ない程度の精度は担保できていると考える。

Strategy for Future Research Activity

deep learningの学習における条件は概ね最適なものを見つけることができたと考えるが、新たなnetwork構造や関数が提案されているため、今後もdeep learningにおけるtrainingの条件に関する検討を重ねていく。

Report

(3 results)
  • 2023 Research-status Report
  • 2022 Research-status Report
  • 2021 Research-status Report
  • Research Products

    (4 results)

All 2021

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (3 results)

  • [Journal Article] Deep learning-based Hounsfield unit value measurement method for bolus tracking images in cerebral computed tomography angiography2021

    • Author(s)
      Watanabe Shota、Sakaguchi Kenta、Murata Daisuke、Ishii Kazunari
    • Journal Title

      Computers in Biology and Medicine

      Volume: 137 Pages: 104824-104824

    • DOI

      10.1016/j.compbiomed.2021.104824

    • Related Report
      2021 Research-status Report
    • Peer Reviewed
  • [Presentation] A Novel Bolus Tracking Method Using Convolutional Neural Network for Cerebral Computed Tomography Angiography2021

    • Author(s)
      渡邊翔太、坂口健太、村田大輔、石井一成
    • Organizer
      第77回 日本放射線技術学会 総合学術大会
    • Related Report
      2021 Research-status Report
  • [Presentation] 頭部CT angiographyにおける畳み込みニューラルネットワークを利用した新たなbolus tracking法の考案2021

    • Author(s)
      渡邊翔太、坂口健太、村田大輔、石井一成
    • Organizer
      医用画像情報学会 第190回大会
    • Related Report
      2021 Research-status Report
  • [Presentation] 診療放射線技師によるdeep learning研究と臨床応用2021

    • Author(s)
      渡邊翔太
    • Organizer
      第21回 瀬戸内CTサイエンスセミナー
    • Related Report
      2021 Research-status Report

URL: 

Published: 2021-04-28   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi