• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Associative Memory Computing: An Ultra Energy Efficient Circuit Technique for AI Accelerators

Research Project

Project/Area Number 24K02918
Research Category

Grant-in-Aid for Scientific Research (B)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 60040:Computer system-related
Basic Section 60090:High performance computing-related
Sections That Are Subject to Joint Review: Basic Section60040:Computer system-related , Basic Section60090:High performance computing-related
Research InstitutionNational Institute of Advanced Industrial Science and Technology

Principal Investigator

更田 裕司  国立研究開発法人産業技術総合研究所, エレクトロニクス・製造領域, 主任研究員 (30587423)

Project Period (FY) 2024-04-01 – 2028-03-31
Project Status Granted (Fiscal Year 2024)
Budget Amount *help
¥18,330,000 (Direct Cost: ¥14,100,000、Indirect Cost: ¥4,230,000)
Fiscal Year 2027: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2026: ¥6,370,000 (Direct Cost: ¥4,900,000、Indirect Cost: ¥1,470,000)
Fiscal Year 2025: ¥6,370,000 (Direct Cost: ¥4,900,000、Indirect Cost: ¥1,470,000)
Fiscal Year 2024: ¥4,290,000 (Direct Cost: ¥3,300,000、Indirect Cost: ¥990,000)
Keywords連想メモリ / 深層学習 / ニューラルネットワーク / FPGA / 大規模言語モデル
Outline of Research at the Start

近年の人口知能(AI)の技術革新は目覚ましく、特に自然言語処理用AIである大規模言語モデル(LLM)に注目が集まっている。しかし、LLMは計算量が多く、その電力消費が大きな課題となっている。AI処理の大半は積和算で構成され、従来のAI処理向け専用チップ(AIチップ)では積和算の効率化に主眼が置かれている。本研究では、連想メモリを使用することで積和算をメモリ読み出しに置き換え、高効率のAI処理を実現する新しいAIチップ技術<連想メモリコンピューティング>を提案する。そして本技術をLLMなどの実用的なAIタスクに適用する為のアルゴリズム・回路技術を確立し、FPGAを用いてその有効性を実証する。

URL: 

Published: 2024-04-11   Modified: 2024-06-24  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi