研究概要 |
本研究では,自分に向かって歩いてくる他者の知覚について,その視覚情報処理の機能と仕組みを解明し,人とロボットがお互いに歩き回るようなダイナミックな場面で潜在的で自動的なコミュニケーションを成立させる要因を特定し,人とロボットが自然に共生できるシステムの提案を行う。特に,潜在的コミュニケーションに深く関与する「顔」や「しぐさ」の情報を操作し,歩行者(入やロボットなど)の方向知覚に及ぼす影響を心理物理学的手法によって研究する。顔やしぐさは,身体的な意図と身体的な情動の観点から分析し,その時空間特性,影響の強さ,個人差などを定量的に明らかにする。また,スクランブル交差点のように多数の歩行者がいるときに行われる同時処理の機能と精度を調べ,社会的な歩行方向知覚の解明へ展開する。 歩行者刺激をコンピュータでリアルタイムに制御して広視野スクリーンあるいはCRTディスプレイに提示し,観察者の行動反応を心理物理学的手法で測定した。 身体の向きと視線・頭部の向きの関係は,身体的な意図を表象しているものと考えられるので,身体に対する頭部や視線の方向を独立に制御して,その影響を心理物理実験によって調べた。頭部の方向は歩行方向知覚に影響を及ぼすが,視線は影響しないことを明らかにした。 多数の歩行者のうち自分に歩いている者あるいは外れていく者を検索する課題を被験者に課し,歩行方向の差にとって,向かってくる歩行者が見つけやすい社会的知覚モードと,外れていく歩行者を見つけやすい一般物体知覚モードの2つがある可能性を発見した。
|