• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 前のページに戻る

画像生成AIの訓練データを暴露するモデル反転攻撃:リスク定量化と防御法開発

研究課題

研究課題/領域番号 25K03121
研究種目

基盤研究(B)

配分区分基金
応募区分一般
審査区分 小区分60070:情報セキュリティ関連
研究機関東京理科大学

研究代表者

中村 和晃  東京理科大学, 工学部情報工学科, 准教授 (10584047)

研究期間 (年度) 2025-04-01 – 2030-03-31
研究課題ステータス 交付 (2025年度)
配分額 *注記
15,210千円 (直接経費: 11,700千円、間接経費: 3,510千円)
2029年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
2028年度: 1,820千円 (直接経費: 1,400千円、間接経費: 420千円)
2027年度: 4,420千円 (直接経費: 3,400千円、間接経費: 1,020千円)
2026年度: 3,770千円 (直接経費: 2,900千円、間接経費: 870千円)
2025年度: 3,510千円 (直接経費: 2,700千円、間接経費: 810千円)
キーワードAIセキュリティ / モデル反転攻撃 / 画像生成 / データ保護 / AIアクセス制御
研究開始時の研究の概要

生成AIは大量のデータに基づいて構築される.では,その構築に際し使用されたデータ(訓練データ)がAI自身から復元され流出することは起こり得るか? これは,データ保護の観点において重大な問いであるにもかかわらず,その答えが出されないまま技術開発のみが先行している.本研究では,生成AIの例として画像生成AIを取り上げ,それに対し「モデル反転攻撃」と呼ばれる攻撃を仕掛けることにより訓練データが本当に復元可能か否かを検証する.その上でさらに,本攻撃に対する防御法として,真の訓練データとは異なるデータが復元されるように攻撃結果を誘導する手法,及び,攻撃目的でのAIアクセス自体を制限する手法を開発する.

URL: 

公開日: 2025-04-17   更新日: 2025-06-20  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi