2010 Fiscal Year Annual Research Report
場の雰囲気を読むチャットシステム~多重レイヤーによる雰囲気と非言語情報のモデル化
Project/Area Number |
22700215
|
Research Institution | Wakayama University |
Principal Investigator |
伊藤 淳子 和歌山大学, システム工学部, 助教 (30403364)
|
Keywords | 対話 / 雰囲気 / 非言語情報 / エージェント / モデル化 |
Research Abstract |
本研究は,人にやさしいインタフェースを備えた「場の空気を読める」チャットシステムの開発を目指す.ユーザの発言に含まれる感情語と顔文字をもとにチャットの雰囲気を推測し,ユーザの分身となるCGキャラクタが表出する表情や視線などといった非言語情報を,その雰囲気が再現されるよう自動的に制御することを目標としてシステムの開発と複数の調査を行い,以下の成果を得た. 1.チャット中のユーザにとって,対話相手に伝えるべき言語的な内容の他に,発言のたびに意識して感情語や顔文字を改めて入力する作業は負担となる.そのため,簡単に楽しく顔文字を入力できるインタフェースおよび発言の中から感情語を自動的に抽出する仕組みを導入した.実験により,提案システムにおいては顔文字や感情語の入力がユーザの対話を妨げず,負担も少ないという結果を得た. 2.チャットにおいて使われる顔文字を収集し,頻出する顔文字と感情語との対応について分析を行った.その結果,以下の知見が得られた. (1)知人同士のチャットにおいて,基本的な8つの感情のうち,特に「歓喜」や「愛慕」に分類される顔文字や感情語が多く使われており,全体の67%を占めた,これらの感情は,顔が見えない相手と対話を円滑に進めるためには必須であるといえる. (2)同じ顔文字であっても,最大で4つの感情に分類されるものもあり,これらの使い分けについては大きく個人差があることがわかった. 3.対話内容をCGキャラクタの動きや表情等を伴って再現した場合,同じような雰囲気を感じるか,違和感を感じないかを実験により調査した結果,80%以上の再現映像において元の雰囲気を感じられることが確かめられた. 顔文字や感情語の選択,使用頻度には個人差がある.次年度では,これらの情報を元に,個人適応を含めたシステム構築を目指す.
|