Society5.0の実現のためにArtificial Intelligence(AI)技術が注目されている。一方で、AIの社会実装における課題として、AIを使用することの安全性とセキュリティリスクが挙げられている。AIの安全性に関して、AIの誤判断は現実へ与える影響が大きいため、騙されないAIが必要である。AIのセキュリティリスクに関して、AIで利用する学習データには個人情報や企業機密が含まれるだけでなく、モデル生成は豊富な計算資源を必要とするため、モデル情報を保護するためのセキュアなAIが必要である。本研究は、セキュアで騙されないAIを実現するために、AIの内部と外部に着目した防御機構を開発する。 2021年度の研究では、これまでの研究で開発した実験環境を用いてAIの安全性評価手法だけでなく、対策技術に関する検討を進めた。具体的には、Field Programmable Gate Array(FPGA)にハードウェア実装したAIに対して、推論時の消費電力を利用したモデル抽出攻撃の検討を進めた。また、ソフトウェア実装したAI推論器への消費電力を用いたモデル抽出攻撃に対して、シャッフリングによる対策手法を開発した。他にもAI推論器での防御技術として、デバイスの認証技術の検討を進めた。ここでは、AIとPhysically Unclonable Function(PUF)の併用技術に関する研究開発を進め、従来よりもユニーク性を高めた新しいアーキテクチャを開発した。また、実デバイスでの様々な性能評価を行い有効性について定量的に評価した。さらに、PUFの安全な認証方法として秘密分散法を利用したセキュアな認証方式についての研究開発も行った。 本年度の研究成果については、関連する国際会議や国内学会で研究発表を行うだけでなく、学術論文誌に投稿し採択された。
|