神経活動と動作の間の関連付けを精密に行うためには、行動解析の自動化によりリアルタイムで特定の行動を検出する必要がある。この目的には、従来は物体検出と行動アノーテーションの二つのステップからなるシステムが用いられてきたが、様々な問題を抱えており、自分の使いたい対象に適用するのは容易ではなかった。一方、近年の深層学習を用いた画像解析手法の進歩により、これまでより柔軟な行動解析の自動化への道が開かれた。特に物体検出においてはノイズに対して格段に頑健でありながら様々な異なる目的にも容易に適用できるシステムが次々に開発されている。しかしながら行動アノーテーションについては依然としてこれまでの機械学習を用いた手法しか存在していない。そこで我々はMATLABにより提供されているYOLOアルゴリズムを用いて、従来物体検出に用いられていた手法を行動アノーテーションに転用し、単一ステップで行動解析を完了させることを試みた。すなわち、特定の行動時に特徴的に表れる姿勢をネットワークに学習させることで、ある行動の生起のタイミングとその位置を極めて高速に検出することが可能になると期待される。既存の画像判別ネットワークをテナガショウジョウバエの闘争・求愛行動に対して転移学習したシステムを作成したところ、極めて高い確率で正しく行動を検出できることが確かめられた。この手法は柔軟に多様な対象に適用可能であることから、広く活用できるものと考える。
|