• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Development of L2 speech training infrastructure for objective measurement of speech comprehensibility based on native speakers' shadowing

Research Project

Project/Area Number 18H04107
Research Category

Grant-in-Aid for Scientific Research (A)

Allocation TypeSingle-year Grants
Section一般
Review Section Medium-sized Section 61:Human informatics and related fields
Research InstitutionThe University of Tokyo

Principal Investigator

峯松 信明  東京大学, 大学院工学系研究科(工学部), 教授 (90273333)

Co-Investigator(Kenkyū-buntansha) 牧野 武彦  中央大学, 経済学部, 教授 (00269482)
山内 豊  創価大学, 教育学部, 教授 (30306245)
齋藤 大輔  東京大学, 大学院工学系研究科(工学部), 准教授 (40615150)
Project Period (FY) 2018-04-01 – 2022-03-31
Project Status Granted (Fiscal Year 2021)
Budget Amount *help
¥40,560,000 (Direct Cost: ¥31,200,000、Indirect Cost: ¥9,360,000)
Fiscal Year 2021: ¥10,270,000 (Direct Cost: ¥7,900,000、Indirect Cost: ¥2,370,000)
Fiscal Year 2020: ¥9,490,000 (Direct Cost: ¥7,300,000、Indirect Cost: ¥2,190,000)
Fiscal Year 2019: ¥10,010,000 (Direct Cost: ¥7,700,000、Indirect Cost: ¥2,310,000)
Fiscal Year 2018: ¥10,790,000 (Direct Cost: ¥8,300,000、Indirect Cost: ¥2,490,000)
Keywords外国語教育 / シャドーイング / 瞬時的明瞭度 / 音声認識 / 聴解モデリング / 瞬時的了解性 / 定量的評価 / ポステリオグラム / 発音評価 / 可解性と了解性 / 定量的計測 / 逆シャドーイング / 可解性 / 事後確率DTW / comprehensibility / 音素事後確率
Outline of Annual Research Achievements

外国語学習者の音声は本人にとっては聞き取りやすいが,聴取者にとっては必ずしも聞き取りやすいとは限らない。聴取者にとっての聞き取りやすさ,瞬時的了解性を客観的に計測する方法として,聴取者(多くは母語話者)にシャドーさせ,そのシャドー音声の崩れを計測することで,瞬時的了解性のアノテーションとする方法を提案している。昨年度は,母語話者に(学習者の読み上げ音声を)シャドーさせ,その直後に,学習者が参照したテキストを参照しながらシャドーさせる方式を提案した(両音声を比較することで瞬時的了解性が計算できる)。本年度は本手法をベースにシャドワーを母語話者のみならず,非母語話者の英語上級者(例えば会議通訳者)にも参加させ,聞き手の言語背景によって瞬時的了解性がどう変化するのか調査した。また,シャドー音声を手動で書き起こすことで,(手動書き起こしに基づく)瞬時的了解性が定量化できるが,これが,提案手法(シャドー音声の崩れの定量化)とどの程度相関があるのか,についても調査した。その結果,提案手法は,シャドー音声を音声認識器で書き起こすよりも,より精度高く,かつ頑健に,手動書き起こしに基づく瞬時的了解性を予測できることがわかった。例えば日本人英語を非母語話者の英語上達者にシャドーさせると,彼らの英語には母語訛りが存在するため,音声認識(自動書き起こし)の精度が落ちる。提案手法は,彼らのシャドー音声と,スクリプトシャドー音声の比較に基づくため,このような母語訛りの影響を受けない。世界諸英語を念頭において,世界中の英語学習者をシャドーする側,される側に配置することを考えた場合,シャドワーの母語訛りに対する非依存性は必須の技術である。また,日本人英語をシャドーさせる場合,シャドワーの日本語学習歴が大きく影響することも示された。これらの研究成果は音声学会の優秀発表賞を受賞した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本年度の成果の一部を上記に示したが,それ以外の理論的考察も大きな成果であると考えている。外国語学習者の音声の「分かり易さ」を形容する用語して,intelligibility, comprehensibility, interpretability, fluency など,様々な用語が乱立しているが,我々が検討する「シャドー音声の円滑さ」が,従来の試みと何が等しく,何が異なるのか,について議論を重ね,瞬時的明瞭度(了解度),あるいは,聴解の円滑さ,という名称で呼ぶことが相応しいという結論に至ったことも大きい。また,聴取者に課すタスクであるシャドーイングは,脳科学の分野で言われる「音声聴取におけるミラーニューロンの活動」と関連付けて議論できること,ミラーリングの音声化がシャドーイングであること,などの理論的裏付けを進めることができたことも大きい。すなわち,実験的には,1) 聴取者(シャドワー)の言語背景を多様にした場合でも応用可能であること,2) シャドー音声を音声認識で自動書き起こしするよりも精度高く,より頑健に処理できること,3) 単語単位のみならず,音素,音節単位でも評価が可能であることを示せた。それに加え,理論的には,1) シャドーの出来・不出来は瞬時的了解度として解釈するのが相応しいこと,2) シャドーイングはミラーニューロンの音声化(意識化)として解釈できること,などの考察をすることができた。なお,次年度の研究(virtual shadower の構築)に向けて,少数のシャドワーを対象として,日本人英語800発声のシャドー音声,スクリプト・シャドー音声の収録を開始した。

Strategy for Future Research Activity

現在,特定の母語話者・英語上級者を対象として,日本人英語800発声に対するシャドー音声,スクリプト・シャドー音声を収録している。これらのシャドー音声対から,提示した日本人英語音声のどこで,どの程度,瞬時的了解度が下がったのか,という時系列アノテーションが得られる。このアノテーションを,学習者音声のみから予測する Virtual Shadower (VS)の構築を検討する。VS は英語上達者の瞬時的聴解の様子をモデル化していることに相当する。学習者が母語話者英語を聞いてシャドー(およびスクリプト・シャドー)した音声があれば,学習者の瞬時的聴解の様子のモデル化することになる。「上級者が初級者の英語音声を聞いた時の聴解モデル」は,初級者にとっては(自身にとっては常に聞き取りやすい)自身の英語を他者はどう聞いているのかが分かり,「初級者が上級者の英語音声を聞いた時の聴解モデル」は,初級者はどのような音声特徴・言語特徴を有する音声区間において聴解が崩れるのかを予測することができる。例えば,リスニング教材の難易度をデータに基づいてソーティングするなど,教材の精緻化を検討できる。これらについて検討する。

Report

(3 results)
  • 2020 Annual Research Report
  • 2019 Annual Research Report
  • 2018 Annual Research Report

Research Products

(64 results)

All 2021 2020 2019 2018

All Journal Article (9 results) (of which Int'l Joint Research: 1 results,  Peer Reviewed: 9 results,  Open Access: 9 results) Presentation (32 results) (of which Int'l Joint Research: 16 results,  Invited: 2 results) Book (2 results) Funded Workshop (21 results)

  • [Journal Article] Optimized Prediction of Fluency of L2 English Based on Interpretable Network Using Quantity of Phonation and Quality of Pronunciation2021

    • Author(s)
      Yang Shen, Ayano Yasukagawa, Daisuke Saito, Nobuaki Minematsu, Kazuya Saito
    • Journal Title

      Proc. IEEE Workshop on Spoken Language Technology

      Volume: 1 Pages: 698-704

    • DOI

      10.1109/slt48900.2021.9383458

    • Related Report
      2020 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Shadowability Annotation with Fine Granularity on L2 Utterances and Its Improvement with Native Listeners’ Script-shadowing2020

    • Author(s)
      Zhenchao LIN, Ryo TAKASHIMA, Daisuke SAITO, Nobuaki MINEMATSU, Noriko NAKANISHI
    • Journal Title

      Proc. INTERSPEECH

      Volume: 1 Pages: 3865-3869

    • DOI

      10.21437/interspeech.2020-2550

    • Related Report
      2020 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Tensor Factor Analysis for Arbitrary Speaker Conversion2020

    • Author(s)
      Daisuke Saito, Nobuaki Minematsu, Keikichi Hirose
    • Journal Title

      IEICE Trans. Inf. & Syst.

      Volume: E103.D Issue: 6 Pages: 1395-1405

    • DOI

      10.1587/transinf.2019edp7166

      10.1587/transinf.2019EDP7166

    • NAID

      130007850060

    • ISSN
      0916-8532, 1745-1361
    • Related Report
      2020 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Analysis of Native Listeners’ Facial Microexpressions While Shadowing Non-Native Speech -- Potential of Shadowers’ Facial Expressions for Comprehensibility Prediction --2019

    • Author(s)
      Tasavat Trisitichoke, Shintaro Ando, Daisuke Saito, Nobuaki Minematsu
    • Journal Title

      Proceedings of INTERSPEECH

      Volume: - Pages: 1861-1865

    • DOI

      10.21437/interspeech.2019-1953

    • Related Report
      2019 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Native Listeners' Shadowing of Non-native Utterances as Spoken Annotation Representing Comprehensibility of the Utterances2019

    • Author(s)
      Zhenchao Lin, Yusuke Inoue, Tasavat Trisitichoke, Shintaro Ando, Daisuke Saito, Nobuaki Minematsu
    • Journal Title

      Proceedings of SLaTE

      Volume: - Pages: 43-47

    • DOI

      10.21437/slate.2019-8

    • Related Report
      2019 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] A Large Collection of Sentences Read Aloud by Vietnamese Learners of Japanese and Native Speaker’s Reverse Shadowings2019

    • Author(s)
      Shintaro Ando, Zhenchao Lin, Tasavat Trisitichoke, Yusuke Inoue, Fuki Yoshizawa, Daisuke Saito, Nobuaki Minematsu
    • Journal Title

      Proceedings of O-COCOSDA

      Volume: - Pages: 1-6

    • DOI

      10.1109/o-cocosda46868.2019.9041215

    • Related Report
      2019 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Many-to-Many and Completely Parallel-Data-Free Voice Conversion Based on Eigenspace DNN2019

    • Author(s)
      Tetsuya Hashimoto, Daisuke Saito, Nobuaki Minematsu
    • Journal Title

      IEEE/ACM Transactions on Audio, Speech, and Language Processing

      Volume: 27 Pages: 332-341

    • DOI

      10.1109/taslp.2018.2878949

    • Related Report
      2018 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Computer-aided language learning with multi-aspect technical assistance2018

    • Author(s)
      峯松信明
    • Journal Title

      J. Acoust. Soc. Jpn. (J)

      Volume: 74 Issue: 9 Pages: 525-530

    • DOI

      10.20697/jasj.74.9_525

    • NAID

      130007606654

    • ISSN
      0369-4232, 2432-2040
    • Related Report
      2018 Annual Research Report
    • Peer Reviewed / Open Access
  • [Journal Article] Wasserstein GAN and waveform loss-based acoustic model training for multi-speaker text-to-speech synthesis systems using a WaveNet neural vocoder2018

    • Author(s)
      Yi Zhao, Shinji Takaki, Hieu-Thi Luong, Junichi Yamagishi, Daisuke Saito, and Nobuaki Minematsu
    • Journal Title

      IEEE Access

      Volume: 6 Pages: 60478-60488

    • DOI

      10.1109/access.2018.2872060

    • Related Report
      2018 Annual Research Report
    • Peer Reviewed / Open Access / Int'l Joint Research
  • [Presentation] 英語学習者と日本語学習者音声に対する多角的評価に関する実験的検討2021

    • Author(s)
      椢原卓弥,藩陽,斎藤大輔,峯松信明,斉藤一弥,ボイクマン総子
    • Organizer
      音響学会春季全国大会
    • Related Report
      2020 Annual Research Report
  • [Presentation] Multi-granularity analysis of online intelligibility of L2 speech based on reverse shadowing2021

    • Author(s)
      Chuanbo Zhu, Ryo Hakoda, Daisuke Saito, Nobuaki Minematsu, Noriko Nakanishi
    • Organizer
      音響学会春季全国大会
    • Related Report
      2020 Annual Research Report
  • [Presentation] 学習者間相互シャドーイングの実現に向けた音声分析条件と 発音教示生成に関する実験的検討2020

    • Author(s)
      青谷 和真,安藤 慎太郎,井上 雄介,齋藤 大輔,峯松 信明
    • Organizer
      情報処理学会音声言語処理研究会
    • Related Report
      2020 Annual Research Report
  • [Presentation] 逆シャドーイングに基づく可解性の推定とその応用2020

    • Author(s)
      峯松 信明,青谷 和真,林 振超
    • Organizer
      日本語音声コミュニケーション学会
    • Related Report
      2020 Annual Research Report
  • [Presentation] Shadowability-based Analysis of Behaviors of Listeners with Diverse Language Backgrounds when Listening to Japanese English Utterances2020

    • Author(s)
      Chuanbo ZHU, Ryo TAKASHIMA, Shintaro ANDO, Zhenchao LIN, Daisuke SAITO, Nobuaki MINEMATSU, Noriko NAKANISHI
    • Organizer
      音響学会秋季全国大会
    • Related Report
      2020 Annual Research Report
  • [Presentation] Analyses on Instantaneous Perception of Japanese English by Listeners with Various Language Profiles2020

    • Author(s)
      Chuanbo Zhu, Zhenchao Lin, Nobuaki Minematsu, Noriko Nakanishi
    • Organizer
      音声学会全国大会
    • Related Report
      2020 Annual Research Report
  • [Presentation] オンライン国際交流が外国語学習 者のコミュニケーション能力と意識の向 上に与える影響に関する質的考察― スピーキング力とシャドーイング力の伸 長に向けて―2020

    • Author(s)
      山内 豊,峯松信明,西川恵
    • Organizer
      外国語教育メディア学会関東支部研究大会
    • Related Report
      2020 Annual Research Report
  • [Presentation] Acoustic Word Embedding を用いた L2 単語音声の語彙密度分析2020

    • Author(s)
      安藤慎太郎,齋藤大輔,峯松信明
    • Organizer
      音響学会秋季全国大会
    • Related Report
      2020 Annual Research Report
  • [Presentation] 日本人による英語自然発声を対象とした流暢さの高精度自動スコアリングの実現2020

    • Author(s)
      安ヵ川彩乃,安藤慎太郎,紺野瑛介,林振超,井上雄介,齋藤大輔,峯松信明,斉藤一弥
    • Organizer
      電子情報通信学会音声研究会
    • Related Report
      2019 Annual Research Report
  • [Presentation] 瀋陽,安藤慎太郎,峯松信明,齋藤大輔,小橋川哲2020

    • Author(s)
      韻律的特徴・ラベルを用いたDNN音響モデルに基づく英語発話時の韻律制御に対する自動推定
    • Organizer
      電子情報通信学会音声研究会
    • Related Report
      2019 Annual Research Report
  • [Presentation] 吉澤風希,熊野正,峯松信明,栗原清2020

    • Author(s)
      日本語end-to-end音声合成を用いた韻律シンボル教示とその音響的実現に関する音声教育的考察
    • Organizer
      電子情報通信学会音声研究会
    • Related Report
      2019 Annual Research Report
  • [Presentation] Development of online digit span tests to examine how working memory relates to L2 proficiency2020

    • Author(s)
      T. Akashi, Y. Yamauchi
    • Organizer
      TESOL and PAC
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Validation of auditory and written grammatical judgement tests to measure grammatical knowledge and L2 proficiency2020

    • Author(s)
      S. Katayama, Y. Yamauchi
    • Organizer
      TESOL and PAC
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Validation of two productive tests compared to receptive vocabulary size and L2 overall proficiency2020

    • Author(s)
      Y. Takaki, Y. Yamauchi
    • Organizer
      TESOL and PAC
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] INFLUENCE OF CONTENT VARIATIONS ON SMOOTHNESS OF NATIVE SPEAKERS’ REVERSE SHADOWING2019

    • Author(s)
      Tasavat Trisitichoke, Shintaro Ando, Yusuke Inoue, Daisuke Saito, Nobuaki Minematsu
    • Organizer
      International Congress on Phonetic Sciences
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Natives' shadowability as objectively measured comprehensibility of non-native speech2019

    • Author(s)
      Nobuaki Minematsu
    • Organizer
      CASS JSPS joint symposium on linguistics
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research / Invited
  • [Presentation] How can speech technologies support learners to improve their skills of speaking, listening, conversation, and more?2019

    • Author(s)
      Nobuaki Minematsu
    • Organizer
      ROCLING2019
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research / Invited
  • [Presentation] Development and validation of an online test to measure automaticity in L2 vocabulary recognition process2019

    • Author(s)
      Y. Yamauchi, K. Husky
    • Organizer
      Asia TESL
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Development of an online test to examine the relationship between size, recognition time and automaticity of L2 auditory and spoken vocabulary2019

    • Author(s)
      Y. Yamauchi, K. Husky, A. Kunikoshi, M. Nishikawa
    • Organizer
      EuroCALL
    • Related Report
      2019 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Inter-learner shadowing with speech technologies enables automatic and objective measurement of comprehensibility of learners' utterances2019

    • Author(s)
      Nobuaki Minematsu, Yusuke Inoue, Daisuke Saito, Yutaka Yamauchi and Kumi Kanamura
    • Organizer
      AAAL2019
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] How much does automatic evaluation based on deep neural network GOP cover prosodic features in L2 oral task assessment?2019

    • Author(s)
      Megumi Nishikawa, Yutaka Yamauchi, Nobuaki Minematsu, Kayoko Ito, Kay Husky
    • Organizer
      AAAL2019
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Verification of the Cognitive Load Theory: How much does continuous simultaneous oral reproduction training improve L2 overall proficiency?2019

    • Author(s)
      Yutaka Yamauchi, Nobuaki Minematsu, Kayoko Ito, Megumi Nishikawa
    • Organizer
      AAAL2019
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] A Study of Objective Measurement of Comprehensibility through Native Speakers' Shadowing of Learners' Utterances2018

    • Author(s)
      Yusuke Inoue, Suguru Kabashima, Daisuke Saito, Nobuaki Minematsu, Kumi Kanamura, Yutaka Yamauchi
    • Organizer
      INTERSPEECH2018
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Natives’ shadowability as objectively measured comprehensibility of non-native speech2018

    • Author(s)
      N. Minematsu, Y. Inoue, S. Kabashima, D. Saito, Y. Yamauchi, K. Kanamura
    • Organizer
      ISAPh2018
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] DNN-BASED SCORING OF LANGUAGE LEARNERS’ PROFICIENCY USING LEARNERS’ SHADOWINGS AND NATIVE LISTENERS’ RESPONSIVE SHADOWINGS2018

    • Author(s)
      Suguru Kabashima, Yuusuke Inoue, Daisuke Saito, Nobuaki Minematsu
    • Organizer
      Spoken Language Technology2018
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Prosodic Comparison of Utterances without Extracting Fundamental Frequencies based on Vocalized Subharmonic Summation2018

    • Author(s)
      Takuya OZURU, Nobuaki MINEMATSU, Daisuke SAITO
    • Organizer
      Speech Prosody2018
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 学習者アフレコ音声からの音韻的誤りと韻律的誤りの自動検出2018

    • Author(s)
      大鶴拓哉,峯松信明,齋藤大輔,白寄まゆみ
    • Organizer
      ICJLE2018
    • Related Report
      2018 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 母語話者シャドーイングとそれに基づく「聞き取り易さ」の客観的計測2018

    • Author(s)
      峯松信明,井上雄介,椛島優,齋藤大輔,金村久美,山内豊
    • Organizer
      日本音声学会全国大会
    • Related Report
      2018 Annual Research Report
  • [Presentation] シャドーイング音声自動評価における耐雑音化と回帰を用いた高精度化2018

    • Author(s)
      椛島 優,齋藤 大輔,峯松 信明,山内 豊,伊藤 佳世子
    • Organizer
      情報処理学会音声言語研究会
    • Related Report
      2018 Annual Research Report
  • [Presentation] 母語話者シャドーイングに基づく非母語話者音声の可解性自動計測2018

    • Author(s)
      井上 雄介,椛島 優,齋藤 大輔,峯松 信明,金村 久美,山内 豊
    • Organizer
      情報処理学会音声言語研究会
    • Related Report
      2018 Annual Research Report
  • [Presentation] 母語話者シャドーイングに基づく学習者音声の可解性自動計測と回帰分析による高精度化2018

    • Author(s)
      井上 雄介,椛島 優,齋藤 大輔,峯松 信明
    • Organizer
      情報処理学会音声言語研究会
    • Related Report
      2018 Annual Research Report
  • [Presentation] 母語話者シャドーイングによる「聴き取り易さ」の客観的計測2018

    • Author(s)
      峯松信明,山内豊
    • Organizer
      外国語教育メディア学会全国研究大会
    • Related Report
      2018 Annual Research Report
  • [Book] 日本語教師のためのシャドーイング指導2019

    • Author(s)
      迫田久美子・古本裕美・倉品さやか・山内豊・近藤妙子
    • Total Pages
      192
    • Publisher
      くろしお出版
    • ISBN
      9784874248171
    • Related Report
      2019 Annual Research Report
  • [Book] Digital resources for learning Japanese2018

    • Author(s)
      Motoko Ueyama, Irena Srdanovic
    • Total Pages
      235
    • Publisher
      Bononia University Press
    • ISBN
      9788869232978
    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Atlanta, USA)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (BuenosAires, Argentina)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Quito, Ecuador)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Lima, Peru)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Cusco, Peru)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (SaoPaulo, Brazil)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Campinas, Brazil)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Asuncion, Paraguay)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (WashingtonDC, USA)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Ghent, Belgium)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Leiden, Netherland)2019

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Seatle, USA)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Manila, Philipines)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Hanoi, Vietnam)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Prague, Czech)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Venice, Italy)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Colombo, SriLanka)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Pune, India)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Chennai, India)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Delhi, India)2018

    • Related Report
      2018 Annual Research Report
  • [Funded Workshop] Tutorial workshop of OJAD (Canakkale, Turkey)2018

    • Related Report
      2018 Annual Research Report

URL: 

Published: 2018-04-23   Modified: 2021-12-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi