研究課題/領域番号 |
22K10114
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分57060:外科系歯学関連
|
研究機関 | 東京大学 |
研究代表者 |
末永 英之 東京大学, 医学部附属病院, 講師 (10396731)
|
研究分担者 |
榊原 安侑子 東京大学, 医学部附属病院, 特任臨床医 (90897282)
|
研究期間 (年度) |
2022-04-01 – 2025-03-31
|
研究課題ステータス |
交付 (2022年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2024年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2023年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2022年度: 1,950千円 (直接経費: 1,500千円、間接経費: 450千円)
|
キーワード | コンピュータ外科学 |
研究開始時の研究の概要 |
外科手術には三次元的な空間認識能力が求められ、医療の完成度は術者の技量に大きく依存することから、医用画像データから構築する術前のコンピュータシミュレーションを用いた高精度な手術支援技術は重要である。本課題では、取得したCT画像データと術野カメラの映像からAIを使用して自動で認識・理解する自動レジストレーション、AR表示、自動手術計画、手術支援ロボット制御の実用化を目指す。
|
研究実績の概要 |
外科手術には三次元的な空間認識能力が求められ、医療の完成度は術者の技量に大きく依存することから、医用画像データから構築する術前のコンピュータシミュレーションを用いた高精度な手術支援技術は重要である。AIは、大量のサンプルを用いて学習し、医用画像パターンの識別・分類・定量やロボットアームの制御に有用である。これまでに、術野カメラを用いたコンピュータビジョン(人間の視覚システムが行うことができるタスクを自動化する技術)により画像認識でマーカーを用いずにコンピュータ断層撮影(CT)等の画像(コンピュータ空間)と患者位置(現実空間)の空間的対応関係を求める処理(レジストレーション)を行う拡張現実(AR)技術の開発を行ってきた。マーカーを用いずに術野カメラから得られた画像情報を処理して患者の位置情報を正確に把握する。歯などをマーカーの代用にして自動かつ高精度のリアルタイムなCT画像-患者位置合わせを実現して、AR表示する。しかし、現状では術前CT等の3D画像から3D画像処理ソフトウェアを用いて、外科医が自分で手術シミュレーションなどにより手術計画を立案する必要がある。外科医が全例に手術前に自分で数時間を要して手術シミュレーションを実施するのは困難であり、手術シミュレーションも術者の経験や勘によるものである。本課題により人工知能(AI)による自動手術計画の立案や数年後の予測・シミュレーションなどが可能となり、AIによる3D-CT画像や手術シミュレーション画像をAR表示する。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
研究計画調書の研究計画と進行状況がほぼ同一である。
|
今後の研究の推進方策 |
開発した口腔外科手術支援ロボットを使用して、深層学習によるコンピュータビジョンを用いた位置制御によって可動部の最適軌道を計算する。画像認識プログラムと統合されたロボットの行動命令は自律制御型として、ARによりロボットの動作を可視化する。正常な動作が保証される入力条件、プログラムの計算フロー、アルゴリズム、出力する値の精度を規定する距離、角度などが臨床上許容される精度であることを評価する。
|