研究課題/領域番号 |
19H04164
|
研究種目 |
基盤研究(B)
|
配分区分 | 補助金 |
応募区分 | 一般 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 筑波大学 |
研究代表者 |
佐久間 淳 筑波大学, システム情報系, 教授 (90376963)
|
研究期間 (年度) |
2019-04-01 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
17,290千円 (直接経費: 13,300千円、間接経費: 3,990千円)
2022年度: 780千円 (直接経費: 600千円、間接経費: 180千円)
2021年度: 4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2020年度: 5,850千円 (直接経費: 4,500千円、間接経費: 1,350千円)
2019年度: 6,500千円 (直接経費: 5,000千円、間接経費: 1,500千円)
|
キーワード | 機械学習 / 人工知能 / セキュリティ / プライバシー / 高信頼AI / 敵対的学習 / ドメイン汎化 / 説明可能AI / 深層学習 / 信頼性 / モデル帰属 / 敵対的サンプル / 電子透かし |
研究開始時の研究の概要 |
深層学習の急速な発展に伴い、画像や音声などの認識精度が人間の認識能力を超える程度にまで改善した.今後は機械学習が人間や社会にとって重要な判断や意思決定の一部を担うようになることが予想される. 本研究では、深層学習特有のセキュリティ・プライバシー上の問題として、敵対的事例(人間の認識とモデルによる認識にねじれが生じる事例)、モデル反転(学習済みモデルからの機密情報漏洩)、生成モデルによる捏造(自然画像や自然音声を模倣した画像・音声の捏造)を防ぐ技術の構築を目指す。
|
研究成果の概要 |
AIへの攻撃、AIへの防御、および説明可能なAIの分野において、成果を上げた。代表的な成果は以下の通り。AIへの攻撃では、音声認識モデルを物理世界で攻撃するための敵対的な音声例生成手法を提案した。研究成果はIJCAI2019に採択され、2023年現在引用数は170を超える。AIの防御では、深層学習を使用したコンテンツベース画像検索において、敵対的事例に対する保証付き防御手法を開発した。AI説明性の観点では、深層学習分類器を対象として、データXがクラスYに分類されるのは、XがA、B、を持ち、Cを持たないからである、というタイプの説明を与える手法を提案した。研究成果はAAAI2022に採択された。
|
研究成果の学術的意義や社会的意義 |
深層学習が社会にとって重要な判断や意思決定の一部を担うようになった場合, 深層学習そのものを不正利用したり,深層学習の判断や意思決定を不正に捻じ曲げて,不当に利益を得ようとする人間が現れると考えられる。そのような敵対的環境において深層学習を適切に動作させるためには深層学習特有のセキュリティの問題を解決する技術が必要である。また深層学習は、学習のために大量にデータを収集したり、予測のために対象に関するデータを取得したりする必要がある。研究ではこのような深層学習のセキュリティに関する問題に対する一定の解決のための方法論を構築した。
|