古代から、痛み等心身の状態を表す顔表情は重要な情報 発信源と認知されてきた。加齢や疾病、感情の落ち込が原因の事故や事件が多発している現代において、顔画像から自動認知症高齢者による自動車事故の予防へ貢献することを目指し、表情からの心身の疾病自動スクリーニングシステムを開発している。認知症患者は、特有の表情を浮かべることがこれまでの研究で判明している。研究における理想環境ではなく、実環境において認知症の検出が可能かを検討するため、これまで収集してきた顔表情データの中でも、実際に運転を行っている映像を使用し、認知症高齢者と健常高齢者の分類実験を行った。映像は、逆光や運転者の姿勢変動など、多くの外乱要因を含む。そこで高いロバスト性を実現するための分類手法として、Deep-learningの中でも、画像認識分野を中心に最も利用されている畳み込みニューラルネットワーク(以下、CNN)を採用し、表情のみを抜き出した画像データからネットワークを構築した。ラベル付けには運転者の認知症診断結果を使用し、それぞれ健常高齢者と認知症高齢者の2つである。認知症の診断手法としては、TDAS及びMSPの二つの指標が使用されている。実験には105名分のデータを使用し、健常高齢者が93名、者認知症高齢者が12名であった。表情のみを抽出するため、顔検出アルゴリズムを用いた自動処理プログラムを開発し、1名の映像データから平均1500枚の顔画像を抽出することができた。構築したネットワークを使用し、6パターンの被験者の組み合わせについて分類実験を行った結果、両者には5%程度の差異があることが確認できた。5%の差異は、認知症高齢者特有の表情であることが推測され、結果から、運転時の表情を用いた認知症検出の可能を見出すことが出来たといえよう。
|