• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2004 Fiscal Year Annual Research Report

衛星観測データによる森林被覆密度分布推定のグローバル適用アルゴリズムの開発

Research Project

Project/Area Number 16560459
Research InstitutionNagaoka University of Technology

Principal Investigator

力丸 厚  長岡技術科学大学, 工学部, 助教授 (70334688)

Co-Investigator(Kenkyū-buntansha) 向井 幸男  長岡技術科学大学, 工学部, 教授 (40324008)
高橋 一義  長岡技術科学大学, 工学部, 助手 (00332651)
Keywordsリモートセンシング / 森林資源 / グローバル / MODIS / LANDSAT / 森林樹冠密度
Research Abstract

グローバルな森林資源観測においては,NOAA, VEGETATION, MODIS等の広域高頻度観測衛星の利用が,観測諸条件および経済性から必須と考えられている.
LANDSAT等の従来型の地球観測衛星を用いた森林資源情報の収集技術は,力丸^*1による樹冠密度推定モデルを含め多くの既往研究がなされている.また,広域高頻度低空間分解能観測衛星を利用した地球規模の森林資源情報の収集には,須崎^*2,竹内^*3等の画素内推定による土地被覆推定手法も提唱されている.しかしながら,通常の画素内推定モデルは,画素内被覆項目の平均的な占有密度を推定している.このため,土地被覆項目間に分光特性の近似したものを含む場合,占有状態が一意的に推定できない場合が発生する.例えば,高密度の森林が低占有率で存在する場合と,低密度の森林が高占有率で存在する場合では,画素の分光特性としては,近似した状態を呈する場合が想定される.平成16年度研究では,広域高頻度低空間分解能観測衛星の画素内の被覆情報の質的な信頼性を再検討するために,LANDSAT衛星画像の解析結果とMODIS衛星画像の比較検討を行なった.
分解能の違いがもたらす影響を調べるために,分解能30mのETM+画像とそれを擬似的に分解能500m相当に処理したETM+画像を比較した.その結果,森林域と非森林域の境界線及び山間部の起伏が大きい地域において誤差が大きくなり,分解能の違いによる影響が見られた.また,ETM+_FCD画像とMODIS_FCD画像の比較により,MODIS画像においてどの程度正確に森林情報が得られているのかを調べた,その結果,4-3.(1)で推測したように,図2と図3においてほぼ同様の誤差分布が得られた.したがって,森林域と非森林域の境界線及び山間部の起伏が大きい地域において,MODIS画像得られた森林情報には誤差が生じるということが明らかとなった.

  • Research Products

    (3 results)

All 2004

All Journal Article (3 results)

  • [Journal Article] MODISデータによる森林被覆密度推定値の妥当性自己診断手法の開発2004

    • Author(s)
      本田広司, 力丸厚, 高橋一義, 向井幸男
    • Journal Title

      日本リモートセンシング学会,第37回学術講演会論文集

      Pages: 15-16

  • [Journal Article] 森林リモートセンシングのための林内光環境の検討2004

    • Author(s)
      藍川知智, 力丸厚, 高橋一義, 向井幸男
    • Journal Title

      日本リモートセンシング学会,第37回学術講演会論文集

      Pages: 17-18

  • [Journal Article] 航空機ハイパースペクトルデータによる森林内分光反射変動特性と生理状態の検討2004

    • Author(s)
      川初倫大, 力丸厚, 高橋一義, 向井幸男
    • Journal Title

      日本リモートセンシング学会,第37回学術講演会論文集

      Pages: 19-20

URL: 

Published: 2006-07-12   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi