研究課題/領域番号 |
23K11227
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61030:知能情報学関連
|
研究機関 | 国立研究開発法人情報通信研究機構 |
研究代表者 |
李 勝 国立研究開発法人情報通信研究機構, ユニバーサルコミュニケーション研究所先進的音声翻訳研究開発推進センター, 研究員 (70840940)
|
研究分担者 |
李 吉屹 山梨大学, 大学院総合研究部, 助教 (30726667)
チョ シンキ 京都大学, 情報学研究科, 特定准教授 (70784891)
|
研究期間 (年度) |
2023-04-01 – 2026-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
4,810千円 (直接経費: 3,700千円、間接経費: 1,110千円)
2025年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2024年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2023年度: 2,210千円 (直接経費: 1,700千円、間接経費: 510千円)
|
キーワード | Multilingual / Multitask / Multimodal / Low-resource / speech recognition |
研究開始時の研究の概要 |
Cross-modality, general purposed multitask model, and cross-lingual communication ability are three key features of next-generation artificial intelligence. This research focuses on advancing these three features simultaneously in the speech recognition (ASR) system to prove: (1) Can rich-resourced language information aid the understanding of low-resource languages? (2) Can other modal information aid the understanding of low-resource languages? (3) Can additional information from other tasks aid in understanding low-resource languages?
|