我々はネットワークにより医療情報を集約化した遠隔集中治療室の構築によって医療従事者の負担軽減や医療の質向上を目標としている。その一つの機能として天井設置型カメラで得られた表情画像をデータベース化し、同時刻の鎮静・鎮痛状態を評価する各種スケールと紐づけた表情特徴量を機械学習することで、鎮静状態を推定するモデルの作成を目的としている。 初年度では酸素マスクや点滴ライン等の人工物が対象者の顔の付近に多い状況下でも対象者の顔パーツを認識可能なモデルの必要性を明らかとした。2年目は、顔、眼にフォーカスして、認識正答率を複数の機械学習・物体検知モデルを用いて評価した。最も高性能なモデルでも眼の検出精度が50%程度と課題が残った。3・4年目はAVPUスコア[Alert(意識清明)Verbal(声かけに反応) Pain(疼痛刺激に反応) Unresponsive(反応なし)]のうち、AとVPUの2群を判別するモデルの作成を目標とした。Faster R-CNN(Region Based Convolutional Neural Network)を使用によって眼の検出精度が90%程度まで向上した。AとVPUの2群を判別する性能は医療従事者による判別との一致率は約50-80%となった。5年目は眼等の物体検出性能の更なる向上と、実装に向けモデルの変更・軽量化を目指した。眼の検出精度が92%程度まで向上し、1サンプルあたりの解析平均計測時間を98%程度削減できた。昨年度はモデル実装を目指し、モデルの更なる軽量化とデバイスのアップデートにより、GPUメモリの使用量を従来の1/4程度に削減した。さらに社会実装として関連施設の集中治療室に開閉眼検知モデルを搭載した機器を設置した。遠隔ICU用の患者監視アプリケーション用のサーバーと連携することで、患者監視アプリ上で開閉眼を確認可能とする取り組みを行った。
|