Brain Machine Interface(BMI)は失われた身体機能を補完する手段として注目されている。運動麻痺などに対する運動支援型BMIは一部実用化も果たしているが、視覚障害や言語障害に対するコミュニケーション支援型BMIは開発途上である。マウスカーソルを移動させてキーボードボタンを押す、というような時間を要するものではなく、意思や感情を直接的、即時的に表出できるシステムが求められている。本研究では文字と物体イメージを関連付けし、入力を「物体イメージを想起したときの脳活動」、出力を「物体イメージに関連付けされている文字」とすることで、タイムラグが少なく、復号化率の高いBMIの実現を目指した。高次の視覚情報は主に側頭葉腹側面で処理されていることから、この部位に慢性頭蓋内電極を留置したてんかん患者の協力を得て、物体視認時、物体イメージ想起時の皮質脳波を計測した。視認時の応答から物体イメージ特異的な応答が、皮質脳波の高ガンマ帯域に強く表現されていることが確認されたことから、主にこのデータを使用して想起時の脳活動の復号化を行った。デコーダー(復号器)にはSLR(sparse logistic regression)を使用し、周波数帯別のERP、周波数帯間の相互相関を入力ベクトルとして採用した。5名の患者において物体視認時の脳活動の復号化率は80.0±12.3%(mean±SD)、物体想起時は61.6±11.4%であった(chance level 20%)。物体想起時であってもchance levelは大きく上回ったが実際のBMI適用にあたってはデータ量を増やしてAIを導入する、Neurofeedbackのトレーニングを行う、短期記憶に関わる部位の脳活動も利用するなどにより、復号化率をより高めていく必要がある。
|