研究課題/領域番号 |
21H03442
|
研究種目 |
基盤研究(B)
|
配分区分 | 補助金 |
応募区分 | 一般 |
審査区分 |
小区分60070:情報セキュリティ関連
|
研究機関 | 大阪大学 |
研究代表者 |
小泉 佑揮 大阪大学, 大学院情報科学研究科, 准教授 (50552072)
|
研究分担者 |
栗原 淳 兵庫県立大学, 情報科学研究科, 准教授 (10577399)
大木 哲史 静岡大学, 情報学部, 准教授 (80537407)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
研究課題ステータス |
完了 (2023年度)
|
配分額 *注記 |
16,900千円 (直接経費: 13,000千円、間接経費: 3,900千円)
2023年度: 5,980千円 (直接経費: 4,600千円、間接経費: 1,380千円)
2022年度: 6,240千円 (直接経費: 4,800千円、間接経費: 1,440千円)
2021年度: 4,680千円 (直接経費: 3,600千円、間接経費: 1,080千円)
|
キーワード | 機械学習 / プライバシー / セキュリティー / 連合学習 / コンピューティング / SGX / セキュリティ / 計算プラットフォーム / バックドア攻撃 |
研究開始時の研究の概要 |
本研究は、機械学習に関わるセキュリティーおよびプライバシー上の脅威に対してアドホックに解決するのではなく、種々の脅威を、脅威1) モデルからの情報漏洩、脅威2) 入力データの改竄などの攻撃、脅威3) モデルの改竄の3種類の攻撃の3つに分類して考え、これらの脅威に対して、AI向け分散計算、ノードの安全性検証、モデルの真正性検証などコンピューティングの観点から総合的にアプローチし、AIシステムのための安全な計算プラットフォームを実現することである。
|
研究成果の概要 |
本研究プロジェクトでは、機械学習から漏洩するプライバシー情報の保護を目的とし、安全な分散型機械学習の処理プラットフォームを設計した。核となる開発技術は、モデルからの情報漏洩を防ぐために、ユーザーから出る機械学習モデルをマスクしたまま秘密裏に集約可能な安全なモデル集約法であり、これによりモデルから漏洩する情報の保護のみならず、モデルの改竄も防ぐことに成功した。さらに、匿名通信やTrusted Execution Environmentを併用することで、分散処理の安全性や入力の安全性を向上させることに成功した。
|
研究成果の学術的意義や社会的意義 |
学術的には、連合学習における安全なモデル集約法の実現により、機械学習におけるプライバシー保護の技術的限界を拡張した。社会的には、個人のデータを保護しながら集合知を活用する新しい形の機械学習の利用法を実現可能にした。医療、創薬や金融など、情報の秘匿性が重要な分野での安全なデータ利用を促進する利用シナリオへの適用が予想される。さらに、提案技術は、プロトコルにはしたがうものの秘匿された情報の奪取を試みる脅威の存在に対しても頑強であり、異なる、あるいは競合するビジネス主体間の安全な連合をも可能にする。このように、情報のプライバシーを守りつつ、社会全体の技術革新の促進に寄与した。
|