• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

テキスト生成の忠実性を高めるためのプロンプト調整手法

Research Project

Project/Area Number 25K03191
Research Category

Grant-in-Aid for Scientific Research (B)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 61030:Intelligent informatics-related
Basic Section 60030:Statistical science-related
Sections That Are Subject to Joint Review: Basic Section60030:Statistical science-related , Basic Section61030:Intelligent informatics-related
Research InstitutionKanazawa University

Principal Investigator

平尾 努  金沢大学, 電子情報通信学系, 教授 (40396148)

Co-Investigator(Kenkyū-buntansha) 安田 宜仁  日本電信電話株式会社NTTコミュニケーション科学基礎研究所, 協創情報研究部, 主幹研究員 (50396149)
奥村 学  東京科学大学, 総合研究院, 教授 (60214079)
西野 正彬  日本電信電話株式会社NTTコミュニケーション科学基礎研究所, 協創情報研究部, 特別研究員 (90794529)
Project Period (FY) 2025-04-01 – 2028-03-31
Project Status Granted (Fiscal Year 2025)
Budget Amount *help
¥17,290,000 (Direct Cost: ¥13,300,000、Indirect Cost: ¥3,990,000)
Fiscal Year 2027: ¥3,770,000 (Direct Cost: ¥2,900,000、Indirect Cost: ¥870,000)
Fiscal Year 2026: ¥7,410,000 (Direct Cost: ¥5,700,000、Indirect Cost: ¥1,710,000)
Fiscal Year 2025: ¥6,110,000 (Direct Cost: ¥4,700,000、Indirect Cost: ¥1,410,000)
Keywords大規模言語モデル / 忠実性 / 検証器
Outline of Research at the Start

大規模言語モデル (LLM) は今や自然言語処理研究全体の基盤技術であり、各種実サービスを含めて広く利用されている。しかし、その利用が進むにつれて、課題も顕在化してきた。なかでも、入力されたプロンプト に対してLLMの生成が整合しているかどうかという「忠実性」を担保することは、LLM の信頼性および品質維持の観点から必須である。本研究では、プロンプトが含む言語構造的・形式的要件に着目し、この要件と整合する忠実性の高いテキスト生成実現をめざす。

URL: 

Published: 2025-04-17   Modified: 2025-06-20  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi