研究課題
動物は生命維持や子孫繁栄のため、外界の状況に応じて、最も多くの報酬を得ることが期待される行動を選択すると考えられている。これまでの多くの研究では、特定の課題を動物に課し、研究目的に合わせて、動物が取れる行動や得られる報酬が人為的に設計されていた。一方で、自然な環境で自由に行動している動物を研究する場合、動物にとっての報酬が不明であることが問題であった。そこで本研究では、動物の行動時系列データから報酬に基づく行動戦略を同定する機械学習法(逆強化学習)を提案した。逆強化学習法の応用先として、線虫C. elegansの温度走性行動に注目した。一定の温度で餌を十分に与えて育成した線虫は、その育成温度を記憶し、温度勾配下では育成温度に移動する。一方で、一定の温度で餌を与えずに育成した線虫は、温度勾配下で育成温度を避けるようになる。まず始めに、温度勾配において大量の線虫をトラッキングすることで、行動時系列データを取得した。そして、そのデータを逆強化学習法に適用することで、線虫の報酬関数を推定した。その結果、餌を与えて育成した線虫の報酬は、「絶対温度」および「温度の時間微分」の関数になっていることが明らかとなった。一方で、飢餓状態で育成した線虫は「絶対温度」のみに依存した報酬関数を持つことが明らかとなった。さらには、推定された報酬を用いて、線虫行動のシミュレーションを行い、線虫の温度走性行動を再現できることを確認することで、逆強化学習法の妥当性を示した。
2: おおむね順調に進展している
28年度に開発した逆強化学習法を用いることで、線虫の温度走性における行動戦略を明らかにした。その成果を論文としてまとめ、現在専門学術誌へ投稿中であるが、掲載に時間がかかっている状況である。しかし、その過程で行なった追試によって、手法の妥当性を示すことができた。状況を鑑みて、推定した行動戦略と神経活動データとの比較解析は先送りにしている。これらの状況を総合して、「②おおむね順調に進展している」と判定した。
研究成果として論文掲載を目指す。開発した手法を、線虫だけではなく、別の動物の行動データへの適用を目指す。29年度での予備的な結果から、複数の行動モードを切り替える混合戦略の存在をデータから見出している。30年度は当初計画に加えて、混合戦略を扱うことのできる手法の開発を目指す。また当初予定取り、行動戦略と神経活動との比較解析に向けた検討を行なう。
予定していた国際会議に行かなかったため、また計算を既存のクラスター計算機で行ったことにより、次年度使用額が生じた。次年度は、高性能計算機を購入することで、研究の促進を図る。またあわせて、29年度の成果を海外で広く発表することも検討する。
すべて 2018 2017 その他
すべて 雑誌論文 (7件) (うち国際共著 2件、 オープンアクセス 5件、 査読あり 5件) 学会発表 (3件) 図書 (2件) 備考 (1件)
Scientific Reports
巻: 8 ページ: 4335
10.1038/s41598-018-22619-9
bioRxiv
巻: 129007 ページ: 1-31
10.1101/129007
Nature Communications
巻: 8 ページ: 33
10.1038/s41467-017-00044-2
PLoS Computational Biology
巻: 13 ページ: 8
10.1371/journal.pcbi.1005702
Developmental Cell
巻: 43 ページ: 305–317
10.1016/j.devcel.2017.10.016
Biology of Reproduction
巻: 97(6) ページ: 902-910
10.1093/biolre/iox141
巻: 163014 ページ: 1-18
10.1101/163014
https://sites.google.com/view/theoretical-biology/