• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2016 Fiscal Year Annual Research Report

ディープニューラルネットワークを用いる高効率適応学習の汎用的フレームワークの提案

Research Project

Project/Area Number 15J02418
Research InstitutionDoshisha University

Principal Investigator

落合 翼  同志社大学, 理工学研究科, 特別研究員(DC1)

Project Period (FY) 2015-04-24 – 2018-03-31
Keywords環境適応タスクにおける評価実験 / モデル適応のオンライン化 / ネットワーク構造の自動最適化
Outline of Annual Research Achievements

本研究課題は、ディープニューラルネットワーク(DNN)を用いた、対象問題を限定しない一般的な適応学習フレームワークの構築を目指すものである。提案する適応学習法は、適応に必要となる処理をDNNの特定のパラメータ群に集約・局在化することで、少数のパラメータを用いて、より効果的に適応を行うというコンセプトに基づくものである。
本研究課題を遂行するための研究方針は、(1)複数のタスクに対する評価実験の実施、(2)DNNの内部挙動に着目した提案法の分析、(3)提案法のアルゴリズムの改良、といった3つの事項に大別される。
一昨年度(平成26年度)の研究成果を考慮し、昨年度(平成27年度)は(1)と(3)の目標達成により焦点を当てた研究に取り組んだ。昨年度の研究成果として、大きく分けて以下の4つが挙げられる。(1)一昨年度までの研究成果をまとめ上げ、ジャーナル論文として投稿(採択済み)。(2)雑音下音声認識タスクにおける提案手法の有効性の検証。評価実験を通して、雑音環境に対する適応のような広い意味での環境適応タスクにおいても、本研究課題が主題とする適応学習型のモデル適応手法が有効に機能することが確認された。(3)モデル適応手法のオンライン化に関する研究。リアルタイム性が強く要求される問題に対しても、提案手法が適用可能となるようアルゴリズムの改良に取り組んだ。(4)DNNのネットワーク構造の自動最適化に関する研究。認識精度、メモリコスト、計算速度といった様々な観点から、適切な大きさのネットワーク構造を設計することは重要である。一昨年度の研究(分析)を通して得られた知見に基づき、必要十分な大きさのネットワーク構造を自動的に獲得する新たな学習アルゴリズムを開発した。
これらの研究成果は、提案する適応学習フレームワークの性能改善、並びに、その適用範囲の拡大に大きく寄与するものである。

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

【研究実績の概要】でも述べたように、本研究課題を遂行するために掲げた研究方針として、(1)複数のタスクに対する評価実験の実施、(2)DNNの内部挙動に着目した提案法の分析、(3)提案法のアルゴリズムの改良、といった3つの事項が挙げられる。昨年度までの研究成果として、既にこれら(1)、(2)、(3)の全ての事項に関して、一定の研究成果を上げることに成功している。
昨年度の研究成果については、国際会議において随時報告を行った。特に、「モデル適応のオンライン化」や「ネットワーク構造の自動最適化」に関する成果については、信号処理分野におけるトップカンファレンスであるIEEEの国際会議ICASSPにおいて、一昨年度に引き続き2本の論文が採択され、その発表に対しても高い評価を得ることが出来た。加えて、一昨年度までの研究成果である「機能局在化のコンセプトに基づく適応学習法の基本アルゴルズム」をまとめ上げ、電子情報学会の英文紙に投稿した。現時点で採択が確定しており、既に該当する論文誌において掲載されている。
以上のような成果発表の状況からも、昨年度は研究課題の遂行に向けて、大きな技術的進展を成し遂げられたものと考えている。

Strategy for Future Research Activity

【現在までの進捗状況】でも述べたように、本研究課題を遂行するための研究方針は、(1)複数のタスクに対する評価実験の実施、(2)DNNの内部挙動に着目した提案法の分析、(3)提案法のアルゴリズムの改良、といった3つの事項に大別される。一昨年度は特に、(2)と(3)の目標達成により焦点を当てた研究に取り組んだ。また、昨年度は特に、(1)と(3)の目標達成により焦点を当て研究に取り組んだ。結果として、提案する適応学習のアルゴリズムは着実に「性能向上」並びに「適用範囲の拡大」を成し遂げている。
最終年度である平成28年度(本年度)は、そうしたこれまでの研究成果を通して得られた要素技術を統合し、提案する適応学習フレームワークを、タスクを問わないより一般的な形でまとめ上げたいと考えている。まだ想定段階ではあるが、本年度はそのまとめ上げの過程において必要となるであろう「追加実験」や「アルゴリズムの調整」に焦点を当てて研究を進める予定である。もちろん上記の研究のまとめ上げに加えて、提案するアルゴリズムの分析や改良にも、引き続き積極的に取り組んでいく予定である。

  • Research Products

    (4 results)

All 2017 2016 Other

All Int'l Joint Research (1 results) Journal Article (1 results) (of which Peer Reviewed: 1 results,  Acknowledgement Compliant: 1 results) Presentation (2 results) (of which Int'l Joint Research: 2 results)

  • [Int'l Joint Research] MERL(米国)

    • Country Name
      U.S.A.
    • Counterpart Institution
      MERL
  • [Journal Article] Speaker Adaptive Training Localizing Speaker Modules in DNN for Hybrid DNN-HMM Speech Recognizers2016

    • Author(s)
      Tsubasa Ochiai, Shigeki Matsuda, Hideyuki Watanabe, Xugang Lu, Chiori Hori, Hisashi Kawai, Shigeru Katagiri
    • Journal Title

      IEICE TRANSACTIONS on Information and Systems

      Volume: 99 Pages: 2431-2443

    • DOI

      10.1587/transinf.2016SLP0010

    • Peer Reviewed / Acknowledgement Compliant
  • [Presentation] Automatic node selection for deep neural networks using group lasso regularization2017

    • Author(s)
      Tsubasa Ochiai
    • Organizer
      International Conference on Acoustics, Speech and Signal Processing (ICASSP)
    • Place of Presentation
      New Orleans (USA)
    • Year and Date
      2017-03-08
    • Int'l Joint Research
  • [Presentation] Cumulative moving averaged bottleneck speaker vectors for online speaker adaptation of CNN-based acoustic models2017

    • Author(s)
      Tsubasa Ochiai
    • Organizer
      International Conference on Acoustics, Speech and Signal Processing (ICASSP)
    • Place of Presentation
      New Orleans (USA)
    • Year and Date
      2017-03-06
    • Int'l Joint Research

URL: 

Published: 2018-01-16   Modified: 2022-02-16  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi