2010 Fiscal Year Self-evaluation Report
Integration of auditory and visual information in human communication.
Project/Area Number |
20300080
|
Research Category |
Grant-in-Aid for Scientific Research (B)
|
Allocation Type | Single-year Grants |
Section | 一般 |
Research Field |
Sensitivity informatics/Soft computing
|
Research Institution | Teikyo University |
Principal Investigator |
MOCHIZUKI Kaname Teikyo University, 文学部, 准教授 (80280543)
|
Project Period (FY) |
2008 – 2011
|
Keywords | 視聴覚統合 / 対人コミュニケーション / 映像音声の同期 / 実験心理学 / リップシンク |
Research Abstract |
動画像における映像と音声の時間同期の問題は,いわゆるリップシンク(lipsync)と呼ばれ,テレビ放送の品質評価,品質保証の観点から研究されてきた。赤井田ら(1997)はアナウンス映像と,打楽器演奏の2種類について評価実験を行ない,アナウンスの場合,映像・音声の非同期(ズレ)の知覚閾(検出閾)は,音が先行した場合46ms,映像先行で122msであることを示し,これを基にITU-Rの勧告がまとめられた。近年では,映像・音声の非同期を自動的に補正するシステムも開発され,放送技術の問題としてのリップシンクは一応の解決をみたと言える。しかし,認知科学の視点からみると,この現象には未だ解明されていない問題が残されており,それを研究することは,ヒューマン・コミュニケーションにおける視覚情報の役割や,視聴覚情報の統合を理解する上で重要な知見を提供するものと考えられる。
|