研究概要 |
これまでに,音声と耳介画像を用いた高精度で頑健なマルチモーダル個人認証手法を提案している.提案手法では,音声と耳介画像の特徴量を別個に申請者の音声モデル・耳介画像モデルに入力し,得られる二つの尤度を重み付けして足し合わせて融合スコアを求め,そのスコアが閾値を超えれば本人,超えなければ詐称者であると判断する.音声特徴量にはケプストラム情報(MFCC)を,耳介画像特徴量には学習データの主成分分析(PCA)で得られた固有空間への射影によって得られる主成分得点を用いていた. しかし,これまでの手法では,耳介画像のみを利用した認証の性能が低く,等誤り率は11.9%であった.そこで,耳介画像による認証性能を改善し,マルチモーダル個人認証全体の性能の向上をはかる.具体的には,これまでの特徴量に加え,耳介画像の独立成分分析(ICA)によって構築された基底空間への射影から求まる耳介画像特徴量を利用する.そのモデルに対する尤度をPCAによる方法で得られた尤度と足し合わせ,耳介情報による認証スコアとする.その際,PCA, ICAによる基底の次元数と組み合わせの最適化も行う. 約半年に渡る5時期分の音声・耳介画像データベース(男性38名)を用い,本手法の評価実験を行った.実験の結果,まず耳介画像のみによる等誤り率は11.9%から5.6%となり,大きく性能が改善された.マルチモーダル認証においては,評価音声データに様々な雑音条件で全ての雑音環境条件下で音声と耳介画像の組み合わせによる性能向上が確認された.SN比が15dBの時,等誤り率は4.3%となり,従来手法の同条件時と比較して相対値で35.8%,等誤り率が削減した.
|