• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2010 Fiscal Year Annual Research Report

放物型概均質ベクトル空間とそのゼータ関数の整数論

Research Project

Project/Area Number 20740018
Research InstitutionKobe University

Principal Investigator

谷口 隆  神戸大学, 理学研究科, 講師 (60422391)

Keywords代数的整数論 / 概均質ベクトル空間 / ゼータ関数 / 代数群 / 密度定理
Research Abstract

概均質ベクトル空間とそのゼータ関数を軸に,代数的整数論の研究を行っている.本年度の成果は以下の通り.いずれもFrank Thorne氏(スタンフォード大)との共同研究である.
1.軌道型L関数の研究.昨年度に,概均質ベクトル空間の自然なL関数の一種として"軌道型L関数"が定まることを発見していたが,本年度はこのL関数の研究を進めた.一般論を構築すると共に,2元3次形式の空間の場合に軌道型L関数の解析的性質を詳しく調べた.現在,成果をまとめた論文を執筆している.
2.3次体の判別式の密度定理.次数を決めて代数体の判別式の密度を求めることは,整数論では古典的な問題である.3次の場合はDavenport-Heilbronnによって第1の主要項が得られており,その後の研究により第2の主要項の存在が予想されていたが,この予想を解決した.証明には2元3次形式の概均質ベクトル空間のゼータ関数を用いる.また,等差数列中の判別式の分布に偏りがでることが分かった.例えば判別式がX以下でa(mod7)となる3次体の個数の式は,aごとに異なるものになる.これは上記の軌道型L関数が,3次指標で捻ったときにs=5/6での極が消えずに残ることの帰結として得られる.分布に偏りが出ると予想される整数論的対象はいくつか知られているが,実際にその偏りが証明されるのは比較的珍しいと思われる.この成果は論文に執筆し,現在投稿中である.

  • Research Products

    (4 results)

All 2010 Other

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (2 results) Remarks (1 results)

  • [Journal Article] 高次合成則入門

    • Author(s)
      谷口隆
    • Journal Title

      数理解析研究所講究録別冊

      Volume: (印刷中)

    • Peer Reviewed
  • [Presentation] The secondary term in the counting function of cubic field discriminants, and their distributions in arithmetic progressions2010

    • Author(s)
      谷口隆
    • Organizer
      Stanford/AIM Number Theory Seminar
    • Place of Presentation
      スタンフォード(米国)(招待講演)
    • Year and Date
      2010-10-29
  • [Presentation] Orbital L-functions for the space of binary cubic forms2010

    • Author(s)
      谷口隆
    • Organizer
      Second international workshop on zeta functions in algebra and geometry
    • Place of Presentation
      Illes Balears大学(スペイン)(招待講演)
    • Year and Date
      2010-05-04
  • [Remarks]

    • URL

      http://www.math.kobe-u.ac.jp/~tani/

URL: 

Published: 2012-07-19  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi