研究課題/領域番号 |
22H03658
|
研究種目 |
基盤研究(B)
|
配分区分 | 補助金 |
応募区分 | 一般 |
審査区分 |
小区分61040:ソフトコンピューティング関連
|
研究機関 | 千葉大学 |
研究代表者 |
川本 一彦 千葉大学, 大学院工学研究院, 教授 (30345376)
|
研究分担者 |
計良 宥志 千葉大学, 大学院工学研究院, 助教 (00887705)
|
研究期間 (年度) |
2022-04-01 – 2026-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
17,160千円 (直接経費: 13,200千円、間接経費: 3,960千円)
2023年度: 4,680千円 (直接経費: 3,600千円、間接経費: 1,080千円)
2022年度: 6,500千円 (直接経費: 5,000千円、間接経費: 1,500千円)
|
キーワード | 敵対的攻撃 / 深層学習 / 深層強化学習 / ロバストシステム |
研究開始時の研究の概要 |
本研究では,深層学習のための新たなシステムデザイン法として「敵対的デザイン(adversarial design)」を開拓することを目的とする.「敵対的」という表現は,深層ニューラルネットワーク(DNN)を誤認識させるための敵対的な攻撃に由来している.敵対的攻撃は巧妙で破壊的な行為ではあるが,その性質を逆に利用することで,DNNの汎化能力・転移性・安定性等の向上に資するシステムデザイン法として展開する.展開する領域は,画像・動画認識と深層強化学習によるロボット制御とする.
|
研究実績の概要 |
現在までに「敵対的デザイン」にために、深層学習システムおよび深層強化学習システムへの敵対的攻撃に対する脆弱性について検証した。概要は次の通りである。
深層学習の画像・行動認識システムにおいて、敵対的攻撃の脆弱性を検証した。(1)モデルの入力変数間の関係に基づく敵対的転移性の仮説を立て、分析を行い、関連性を発見した。(2)スケルトンベースの行動認識に対して、スケルトンの長さを変えるだけで攻撃できる手法を開発し、敵対的訓練でロバスト性と正確さが向上することを示した。(3)敵対的画像の振幅と位相のスペクトルが畳み込みニューラルネットワーク(CNN)分類器の頑健性に及ぼす影響を調査することで、画像摂動に対するCNNの脆弱性を検証した。敵対的画像の振幅スペクトルとクリーン画像の位相スペクトルを組み合わせた画像を用いた訓練により、CNN分類器が一般的な頑健性を持つことを示した。
深層強化学習を用いた歩行ロボットの脆弱性評価について、以下の3つの敵対的攻撃を検証した。(1)部品形状に対する攻撃では、差分進化手法を開発し、OpenAI Gymで3種類のロボットを実験して脆弱な形状を特定した。(2)関節部への攻撃においても、差分進化手法を用いてトルク信号への摂動攻撃が4足歩行ロボットに可能であることを実証した。(3)不整地での歩行に対する脆弱性を評価し、荒い地形での訓練によって不整地での歩行能力が向上することが確認された。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
敵対的デザインでは、深層システムの性能を劣化させる敵対的な摂動を逆に活用し、深層システムをロバストにする方法論である。そのために、まず深層システムに対する敵対的な摂動を発見することが必要である。本年度では、画像・行動認識システムおよび深層強化学習に基づく歩行ロボット制御システムに対する敵対的な摂動を発見し、その脆弱性を実験的に評価している。さらに、脆弱性からシステムデザインに発展させるために、ゲーム理論の相互作用値を用いた脆弱性の解析、敵対的訓練を用いたロバスト性の検証もスタートしている。以上の進捗は、当初の計画通りであり、本研究は順調に進展している。
|
今後の研究の推進方策 |
研究は順調に進展しており、今後も同様に研究を推進する。とくに、次年度では、深層システムへの敵対的攻撃だけでなく、ランダムノイズなどの普遍的摂動に対する脆弱性を検証しつつ,それらに対してロバストなシステムになるための方法について研究する。
|