研究概要 |
本研究の最終目的は,各種センサから得られる人間の動作データと自然言語文章を相互に変換する能力を持つ知的システムを構築し,文字や音声で高齢者や障害者の動作異常を,例えば,"Aさんの体が折れ曲がったままです"などと報知,あるいは,"Bさんの歩行の様子はどうか?"などの問い合わせに言葉や映像で返答させることにより介護補助に役立てることにある. (1)科学研究費の交付希望期間内に行なった事柄は,以下の3点である: (a)モーションキャプチャを介してえられる人間の動作データ(人体部位座標の時系列パターン)と日本語動作概念("反らす"や"屈む"など)およびそれらに関連する補助概念("ゆっくり"や"激しく"など)との対応づけ(いわゆる,記号接地-Symbol Grounding-)を行った. (b)モーションキャプチャからの上半身動作データを自動的に自然言語表現に変換するシステムの原型を構築した. (c)自然言語による動作に関する問い合わせに言葉および映像で応じるシステムの原型を構築した. (2)本研究の学術的な特色および独創的な点は,自然言語理解処理をイメージのレベルで精密に実現するために独自に開発した自然言語意味論(心像意味論)に基づいている点にある.心像意味論では一階述語論理に基盤を置く時間論理を提案しており,人工的センサが出力する非言語的数値データの時空間的分布とメディアに依存しない中間メディア表現(軌跡式表現)を相互変換可能にすることにより,その表現に推論処理を施し動作データと自然言語表現を体系的に相互変換・参照することが可能である. (3)本研究の意義は,高齢化社会の進展に伴って増加すると考えられる痴呆性老人などの動作異常を身近に設置したセンサと本システムを直結することにより,将来,家庭内においても人手を介さない迅速でかつ柔軟な理解しやすい自然言語通報が可能となる点にある.また,施設や病院などにおいてプライバシーを保護しつつ、24時間監視体制が可能になり,身体を拘束しない介護(いわゆる,"縛らない介護")などの実現が容易になる. (4)本研究は,マルチメディア統合理解システムIMAGES-Mの開発研究の一環として行っており、メディアに依存しない知識表現を仲介として自然言語と種々のセンサデータの相互参照および変換を目指すという国内外に例を見ない特色あるもので,ロボット工学で重要な課題となっている多種類のセンサが係わるセンサフュージョン(multisensory data fusion)や認知科学における概念形成過程の研究課題(記号接地問題-Symbol Grounding Problem-など)とも密接に関連している.
|