2004 Fiscal Year Annual Research Report
人間の意図・行動理解に基づく柔軟なヒューマン・マシン・インタラクションの実現
Project/Area Number |
13224051
|
Research Institution | Kyoto University |
Principal Investigator |
松山 隆司 京都大学, 情報学研究科, 教授 (10109035)
|
Co-Investigator(Kenkyū-buntansha) |
牧 淳人 京都大学, 情報学研究科, 助教授 (60362414)
杉本 晃宏 国立情報学研究所, 知能システム研究系, 助教授 (30314256)
佐藤 洋一 東京大学, 生産技術研究所, 助教授 (70302627)
川嶋 宏彰 京都大学, 情報学研究科, 助手 (40346101)
波部 斉 京都大学, 工学研究科, 助手 (80346072)
鷲見 和彦 京都大学, 情報学研究科, COE研究員 (90372573)
|
Keywords | 人間と共生する情報システム / Hybrid Dynamical System / 漫才の対話分析 / 発話タイミング / 表情分析 / 視線・注視対象の検出 / 手持ち物体のディジタル化 / 装着型視覚センサ |
Research Abstract |
1.漫才対話の動的特性の分析:人間同士の対話は、言葉の意味を伝えるだけでなく、やる気を出させる・楽しませるなど、より上位の目的を持つことが多い。本研究では、対話の具体例として漫才を取り上げ、コーパスの作成とその分析を通じて、(1)対話の文脈に応じた発話タイミングの動的制御、(2)相手の発話終了時を予測した発話の開始が自然な対話には特に重要であるとの知見を得た。この分析に基づき、聞き手を盛り上げるためのタイミング制御とそのシステム設計を行った。 2.Hybrid Dynamical Systemによる微妙な表情分析:顔を構成する複数の部品の運動パターンを昨年度考案したHybrid Dynamical Systemによってモデル化し、部品間の運動開始・終了タイミングの分析から、作り笑いと自然な笑いが区別できることを示した。 3.人間の視線検出:人間の頭部と眼球の向きから、人間が目を向けている方位を高精度に計測する手法を考案し、実験によってその有効性を示した。 4.装着型ビジョンセンサを用いた把持対象との関わり方の解析:昨年までに開発した装着型ビジョンセンサを用いて、人間の3次元注視点の計測および注視対象の高解像度映像の撮影をリアルタイムで行うシステムを開発するとともに、組み立て作業における注視点の変化から、人間の意図、対象の認知状態を読み取るための予備実験を行った。 5.把持物体の全3D形状復元のための距離画像の高精度張り合わせ:把持物体の全形状を復元するには、物体を手で持ち変える前後で復元された部分形状を張り合わせる必要がある。本研究では、復元された部分形状を距離画像として捉え、物体表面の局所構造を保持する距離画像の張り合わせ手法を考案し、実験により、従来手法に比べ正確で頑健な張り合わせが実現できることを示した。
|
Research Products
(6 results)