研究課題/領域番号 |
24650100
|
研究種目 |
挑戦的萌芽研究
|
配分区分 | 基金 |
研究分野 |
感性情報学・ソフトコンピューティング
|
研究機関 | 東北大学 |
研究代表者 |
鈴木 陽一 東北大学, 電気通信研究所, 教授 (20143034)
|
研究分担者 |
川瀬 哲明 東北大学, 大学院医工学研究科, 教授 (50169728)
坂本 修一 東北大学, 電気通信研究所, 准教授 (60332524)
|
研究期間 (年度) |
2012-04-01 – 2015-03-31
|
研究課題ステータス |
完了 (2014年度)
|
配分額 *注記 |
3,900千円 (直接経費: 3,000千円、間接経費: 900千円)
2013年度: 2,210千円 (直接経費: 1,700千円、間接経費: 510千円)
2012年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
|
キーワード | 視聴覚音声知覚 / マルチモーダルインタフェース / 感性情報処理 |
研究成果の概要 |
本研究の目的は,高品位ではない環境下でも高次感性情報の通信が可能な視聴覚音声コミュニケーションシステムの実現にある。ここでは,コミュニケーションにおいて最も重要な要素が,話者の発する音声の意味を聴衆が理解することであると考え,音韻情報の取得において話者映像のどの部分が寄与するのかについて分析を進めた。実験の結果,話者の音韻情報とその話者の静止画像がある環境下では,特に唇音に着目して,話者の口唇部分を何らかの画像処理により編集,操作して,音声と同期して組み合わせることで,本研究が目指す視聴覚音声に関するクロスモーダル推定・合成法が実現できることが示唆された。
|