• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2001 Fiscal Year Annual Research Report

生得的に高学習能を持つラットを利用した学習の分子プロセスの研究

Research Project

Project/Area Number 13877055
Research Category

Grant-in-Aid for Exploratory Research

Research InstitutionTokai University

Principal Investigator

渡辺 哲  東海大学, 医学部, 助教授 (10129744)

Co-Investigator(Kenkyū-buntansha) 木ノ上 高章  東海大学, 医学部, 助手 (30234313)
相川 浩幸  東海大学, 医学部, 講師 (40102850)
Keywords高学習能 / THAラット / マイクロアレイ
Research Abstract

実験材料として、当教室で作成した生得的に高学習能を有するTHA(Tokai High Avoider)ラットとWistarラットを6匹ずつ用いた。12週目のTHAラット(オス)と、同令のWistarラット(オス)3匹ずつについてSidman型電撃回避学習試験をおこなった。学習試験はレバー押し反応と電撃刺激の間隔30秒、電撃刺激間の間隔を5秒とする回避学習スケジュールを用いた。電撃刺激は、DC100V、3mAを0.5秒間通電した。この学習試験を1試行60分間、1日1回、連続3日間行った。後半30分間における3日目の回避率の平均値は、THA 95.0±3.8%、Wistar 65.6±15.9%であり、THAラットの学習能力がWistarラットに比べ有意に優れていた。回避率(%)={(レバー押しが全くない場合の被刺激数-実際の被刺激数)/(レバー押しが全くない場合の被刺激数)}×100。3日間学習試験を行った翌日解剖を行い、海馬よりRNAを抽出した。学習能力に関係することが報告されているN-methyl-D-glutamate(NMDA)受容体の遺伝子発現に関しては、NMDA2A、NMDA2Bとも両ラット間で差はみられなかった(RT-PCRによる解析)。CLONTECH社のAtlas Systemを用いたマイクロアレイ解析では、解析したラットの1101種の遺伝子中13種の遺伝子発現に2倍以上の差がみられた。これらの中には細胞の増殖に関する遺伝子がいくつかみられ、s-myc、TGF-beta receptor II、FGF2遺伝子はTHAラットにおいて2倍以上発現が低下していた。現在これらの遺伝子発現についてNorthern blot hybridization、RT-PCRにて解析中である。

  • Research Products

    (3 results)

All Other

All Publications (3 results)

  • [Publications] T. Watanabe, et al: "Dynamic change of cells expressing MMP-2 mRNA and MT1-MMP mRNA in the recovery from liver fibrosis in the rat"Journal of Hepatology. 35. 465-473 (2001)

  • [Publications] T. Watanabe, et al: "Cells expressing interstitial collagenase mRNA in the recovery from rat liver fibrosis induced by carbon tetrachloride"Cells of the Hepatic Sinusoid. 8. 277-279 (2001)

  • [Publications] I. Okazaki, T. Watanabe, et al: "Reversibility of hepatic fibrosis : from the first report of collagenase in the liver to the possibility of gene therapy for recovery"Keio Journal of Medicine. 50. 58-65 (2001)

URL: 

Published: 2003-04-03   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi