研究実績の概要 |
動物は生存のために環境の変化に応じて行動を最適化する。例えば、ラットが特定の行動をとると報酬を得られる行動課題では、試行錯誤の末に最適な行動を見出して報酬を効率よく獲得できるようになる(オペラント学習)。このオペラント学習には大脳皮質と大脳基底核が重要な役割を担っている。本研究では、特に「規則性」に基づいて報酬獲得を内的に予測できる/できない状況において、大脳皮質と大脳基底核(線条体・側坐核、黒質緻密部・腹側被蓋野)の報酬予測の神経活動とドーパミン伝達を解析することにより、内的な状況判断に応じて報酬予測を制御する神経回路基盤に迫ることを目標とする。 本研究では、ラットが前肢でレバー操作を成功する試行のたびに、報酬Rと無報酬Nを交互に(交互報酬R-N-R-N-)またはランダムに(不規則報酬R-N-N-R-R-)与えられる試行ブロックからなる「交互/ランダム報酬課題」をオペラント学習させる(Yoshizawa et al. bioRxiv, 2023)。交互報酬は規則性から予測できる最も容易な条件、不規則報酬は予測が完全に不可能な条件であり、両者の期待値は0.5である。このときの大脳皮質や大脳基底核の神経活動とドーパミン伝達を行動生理学的に解析する。 本年度は、ラットが交互/ランダム報酬課題を遂行しているときの側坐核や背内側線条体におけるドーパミン放出の計測データを積み増してさらに詳細に解析した(吉澤知彦ら, 第46回日本神経科学大会)。また過去の行動(押す・引く)と結果(報酬・無報酬)の経験に基づき現在の行動を選択するラットにおいて、黒質緻密部のドーパミン細胞と背内側および背外側線条体の直接路および間接路の投射細胞の活動を計測したところ、いずれの細胞も報酬期待の高まりに応じて活動が増加することを見出した(Rios et al. Commun Biol, 2023)。
|