• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

NISQ時代の実用的な量子機械学習アルゴリズムの構築

Research Project

Project/Area Number 23K19954
Research Category

Grant-in-Aid for Research Activity Start-up

Allocation TypeMulti-year Fund
Review Section 1001:Information science, computer engineering, and related fields
Research InstitutionThe University of Tokyo

Principal Investigator

河瀬 良亮  東京大学, 大学院情報理工学系研究科, 助教 (50985299)

Project Period (FY) 2023-08-31 – 2025-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
Fiscal Year 2024: ¥910,000 (Direct Cost: ¥700,000、Indirect Cost: ¥210,000)
Fiscal Year 2023: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Keywords量子機械学習 / 分散量子機械学習 / 分散量子ニューラルネットワーク / 量子コンピュータ / 量子ニューラルネットワーク / NISQ
Outline of Research at the Start

量子ニューラルネットワークは量子機械学習においてよく用いられる手法である。その表現能力は量子回路の深さが深いほど向上するが、一方で勾配が消失してパラメータの最適化が困難になる問題がある。さらに、実際の量子デバイスではノイズがあるために、量子回路の深さが制限されたり、勾配が消失したりする。本研究では、同じパラメータを共有した量子ニューラルネットワークの層を、その層の入力と出力が等しくなるまで繰り返すモデルを提案する。このモデルは実機では1層のみを実装すればよいため、現在のノイズのある量子デバイスでも機械学習タスクを高精度に実行できることが期待される。

Outline of Annual Research Achievements

今年度は、「予定していた提案手法の実装」と「ベースラインとなる手法の開発とその論文化」の二つを行った。
まず先行研究に基づいて深層学習の代わりに量子回路を用いることで、入力と出力が等しくなるまで、量子回路の出力をもう一度その量子回路に入力し、最後に得た出力を用いてクラス分類するコードを実装した。しかしながら、28x28サイズの手書きの数字の認識タスクを行おうとしたが、メモリ不足のため実行が困難であった。量子回路のシミュレーションでは、量子ビット数に対して指数的に必要なメモリが増加することと、量子ビット数の増加とともに勾配が消失しやすくなるため、量子ビット数を減らすアプローチが有効である。そこで特徴量を分割して量子回路に入力することで、使用する量子ビット数を減らした。具体的には、データを2行(2x28)ずつに分割し、これを各々14個の量子回路に入力した。その結果として得られる出力を用いてクラス分類することで、MNISTのデータを28x28のすべての特徴量を用いて60000個のデータで訓練して、テストデータで96%を超える正答率で10クラス分類することに成功した。これは、今までの研究では主に数字の0と1だけを識別する二値分類かつ、PCAで10次元以下に次元削減したデータでしか研究されていなかったため、非常に大きな進展である。また本研究では、分割数の増加に対してlossや精度の変化についても調査した。その結果、分割した特徴量のサイズは大きすぎても小さすぎても精度が悪くなることが示唆された。この研究成果はすでに当該研究分野でよく読まれる雑誌であるQuantum Machine Intelligence (IF: 4.8)にて査読を経て公開されている。この手法はベースラインとして採用し、当初予定していた提案手法と精度を比較する予定である。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

研究実績の概要にも記載した通り、当初予定していた先行研究に基づいて、深層学習の代わりに量子回路を用いて、その入力と出力が等しくなるまで量子回路の出力を入力したモデルを実装した。またメモリ不足に対処するために、特徴量を分割して複数の量子回路に入力するアプローチを採用し、その論文がすでに査読され公開されているため、順調に進展しているといえる。

Strategy for Future Research Activity

現在の問題であるメモリ不足に対処するための方法と、さらに予測精度を向上させるための方法を試す予定である。
まずメモリ不足に対処するための方法として、前処理にプーリングを用いることで、特徴量数を削減することが考えられる。また勾配累積を用いることで、ミニバッチのサイズが小さくてもより正確に勾配推定が可能になる。これらの方法と特徴量を分割する方法を組合わせることで、当初予定していたモデルでも訓練が容易になることが予想される。
一方で、MNIST では予測精度の向上が確認しづらい可能性があるため、より現実的なデータセットであるCifar10を用いることが考えられる。このデータセットに対しては、単純にデータを分割して複数の量子回路に入力するアプローチでは、52%程度の正答率であった。この結果をさらに向上させるために考えられるアプローチとして、たとえば位置エンコーディングを用いることで分割した特徴量に位置情報を付与することや、分割した特徴量を埋め込んだ量子状態同士の内積を用いて類似度を評価して、その類似度の重みに従って各量子回路の出力を加算することが考えられる。
これらのアプローチも併用しながら、当初予定していたモデルでMNISTやCifar10のクラス分類を高精度に行うことを目指す。

Report

(1 results)
  • 2023 Research-status Report
  • Research Products

    (1 results)

All 2024

All Journal Article (1 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results)

  • [Journal Article] Distributed quantum neural networks via partitioned features encoding2024

    • Author(s)
      Kawase Yoshiaki
    • Journal Title

      Quantum Machine Intelligence

      Volume: 6 Issue: 1

    • DOI

      10.1007/s42484-024-00153-4

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access

URL: 

Published: 2023-09-11   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi