• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2023 Fiscal Year Annual Research Report

Adversarial design in deep learning

Research Project

Project/Area Number 22H03658
Allocation TypeSingle-year Grants
Research InstitutionChiba University

Principal Investigator

川本 一彦  千葉大学, 大学院情報学研究院, 教授 (30345376)

Co-Investigator(Kenkyū-buntansha) 計良 宥志  千葉大学, 大学院情報学研究院, 助教 (00887705)
Project Period (FY) 2022-04-01 – 2026-03-31
Keywords敵対的攻撃 / 深層学習 / 深層強化学習 / ロバストシステム
Outline of Annual Research Achievements

2023年度には、深層学習による画像・動画認識と深層強化学習による歩行ロボット制御に対して、それぞれ次の研究を実施した。
(1)深層学習による画像・動画認識:前年度までに、深層モデルへの敵対的攻撃とそれに基づく敵対的訓練のロバスト性を評価した。本年度では、入力信号の周波数観点から、深層モデルの脆弱性・ロバスト性を分析した。まず、畳み込みニューラルネットワークによる画像分類モデルを周波数解析し、その結果に基づくデータ拡張手法を提案した。この方法は、敵対的摂動や一般的摂動に対してロバスト性を向上させることを実証した。次に、グラフ畳み込みニューラルネットワークによるスケルトン行動認識モデルを周波数解析し、精度劣化を起こす周波数帯域を特定した。さらに、その周波数特性は、敵対的訓練により、変化させることができることを示した。
(2)深層強化学習による多脚ロボット制御タスク:前年度までに、多脚ロボット制御に対する敵対的攻撃に対する脆弱性について検証した。本年度では、敵対的攻撃だけでなくランダム摂動に対する脆弱性も評価した。さらに、敵対的攻撃を加えながら強化学習を行う敵対的データ拡張を提案した。敵対的データ拡張は、最悪ケースを考慮した学習になるため、敵対的攻撃だけでなく、より弱いランダムな摂動に対してもロバストになることが期待される。実験的検証により、多脚ロボットの体型やトルク信号への敵対的・ランダム摂動の両方に対して、提案手法によりロバストになることを示した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本申請課題で提案する「敵対的デザイン」では、深層システムの性能を劣化させる敵対的な摂動を逆に活用し、深層システムをロバストにする方法論である。このアプローチでは、まず深層システムに対する敵対的摂動を発見することが必要である。前年度までに、深層学習による画像・行動認識および深層強化学習による歩行ロボット制御に対して、敵対的摂動の生成とその脆弱性評価を実施した。本年度では、これら二つの課題に対して、敵対的摂動を活用した訓練方法を提案し、その訓練によって深層モデルのロバスト性が向上することを実証した。さらに、周波数の観点から深層モデルがロバストになることを解析した。以上の進捗は、当初の計画通りであり、本研究は順調に進展している。

Strategy for Future Research Activity

研究は順調に進展しており、今後も同様に研究を推進する。次年度では、説明可能AIやマルチモーダル学習(とくに画像と言語)における敵対的デザインの応用可能性について検討し、研究を多角的に展開する。また、オフライン強化学習への展開も図る。国際会議や論文誌への発表も積極的に進める。

  • Research Products

    (9 results)

All 2024 2023 Other

All Journal Article (2 results) (of which Peer Reviewed: 2 results) Presentation (6 results) (of which Int'l Joint Research: 2 results) Remarks (1 results)

  • [Journal Article] Fourier analysis on robustness of graph convolutional neural networks for skeleton-based action recognition2024

    • Author(s)
      Tanaka Nariki、Kera Hiroshi、Kawamoto Kazuhiko
    • Journal Title

      Computer Vision and Image Understanding

      Volume: 240 Pages: -

    • DOI

      10.1016/j.cviu.2024.103936

    • Peer Reviewed
  • [Journal Article] Improving zero-shot action recognition using human instruction with text description2023

    • Author(s)
      Wu Nan、Kera Hiroshi、Kawamoto Kazuhiko
    • Journal Title

      Applied Intelligence

      Volume: 53 Pages: 24142~24156

    • DOI

      10.1007/s10489-023-04808-w

    • Peer Reviewed
  • [Presentation] Identifying Important Group of Pixels using Interactions2023

    • Author(s)
      Kosuke Sumiyasu, Kazuhiko Kawamoto, Hiroshi Kera
    • Organizer
      ICCV 2023 Workshop on Uncertainty Quantification for Computer Vision
    • Int'l Joint Research
  • [Presentation] Low-Quality Image Detection by Hierarchical VAE2023

    • Author(s)
      Tomoyasu Nanaumi, Kazuhiko Kawamoto, Hiroshi Kera
    • Organizer
      ICCV 2023 Workshop on Uncertainty Quantification for Computer Vision
    • Int'l Joint Research
  • [Presentation] Exploiting Frequency Spectrum of Adversarial Images for General Robustness2023

    • Author(s)
      Chun Yang Tan, Kazuhiko Kawamoto, Hiroshi Kera
    • Organizer
      The 26th Meeting on Image Recognition and Understanding
  • [Presentation] 画像破損がある場合の分布外検知精度の検証2023

    • Author(s)
      依田一希,川本一彦,計良宥志
    • Organizer
      第26回画像の認識・理解シンポジウム
  • [Presentation] 四脚歩行ロボット体型に対する敵対的攻撃とランダムノイズに頑健な深層強化学習2023

    • Author(s)
      阿座上剛明,計良宥志,川本一彦
    • Organizer
      人工知能学会全国大会論文集
  • [Presentation] 四脚アクチュエータに対する敵対的攻撃とランダムノイズに頑健な深層強化学習2023

    • Author(s)
      大友 拓門,計良 宥志,川本 一彦
    • Organizer
      人工知能学会全国大会論文集
  • [Remarks] スケルトン行動認識のためのフーリエ解析

    • URL

      https://github.com/nntanaka/Fourier-Analysis-for-Skeleton-based-Action-Recognition

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi