| Project Area | Analysis and synthesis of deep SHITSUKAN information in the real world |
| Project/Area Number |
20H05951
|
| Research Category |
Grant-in-Aid for Transformative Research Areas (A)
|
| Allocation Type | Single-year Grants |
| Review Section |
Transformative Research Areas, Section (IV)
|
| Research Institution | Kyoto University |
Principal Investigator |
Nishino Ko 京都大学, 情報学研究科, 教授 (60814754)
|
| Co-Investigator(Kenkyū-buntansha) |
延原 章平 京都工芸繊維大学, 情報工学・人間科学系, 教授 (00423020)
鄭 銀強 東京大学, 大学院情報理工学系研究科, 教授 (30756896)
|
| Project Period (FY) |
2020-11-19 – 2025-03-31
|
| Project Status |
Completed (Fiscal Year 2024)
|
| Budget Amount *help |
¥116,090,000 (Direct Cost: ¥89,300,000、Indirect Cost: ¥26,790,000)
Fiscal Year 2024: ¥18,200,000 (Direct Cost: ¥14,000,000、Indirect Cost: ¥4,200,000)
Fiscal Year 2023: ¥20,930,000 (Direct Cost: ¥16,100,000、Indirect Cost: ¥4,830,000)
Fiscal Year 2022: ¥20,930,000 (Direct Cost: ¥16,100,000、Indirect Cost: ¥4,830,000)
Fiscal Year 2021: ¥19,890,000 (Direct Cost: ¥15,300,000、Indirect Cost: ¥4,590,000)
Fiscal Year 2020: ¥36,140,000 (Direct Cost: ¥27,800,000、Indirect Cost: ¥8,340,000)
|
| Keywords | 知覚情報処理 / 視覚情報処理 / 知能情報処理 / コンピュータビジョン / コンピュテーショナルフォトグラフィ / 画像情報処理 / 人間計測 / 深奥質感 / 知能情報学 |
| Outline of Research at the Start |
人間の「目測」の計算機による実現を目指し、単に物を見た目から認識するという現在の計算機視覚の限界を突破し、一見明らかではないが、視覚情報から抽出されうる物体や環境にまつわる属性を推定できるようにする。また、人間が暗黙に視覚より得ている物、人や場に対して働きかける上で有用な属性情報の顕在化を目指す。特に、「物」「人」さらにそれらが配置され形成する「場」を考え、それぞれについて視覚から抽出しうる人間の行動の決定に有用な質感にまつわる情報を網羅的に推定することを目指す。これら計算機視覚を用いた深奥質感の知覚、表現、そして利用の実現を通し、人間の深奥質感知覚機構の解明および操作にも資する。
|
| Outline of Final Research Achievements |
Based on the premise that the interaction of people with things, other people, and the space as well as the information necessary to plan and execute actions in the real world lie at the core of Shitsukan, i.e., Deep Shitsukan we seek, we aimed to establish foundations of computational visual perception that can understand tangible instantiations as well as intangible clues of Shitsukan from visual information through research aimed at recovering physical properties and conditions of things, capturing signals reflecting the internal states and intentions of people, and reconstructing spaces and their affordance. This has led to a number of research results consisting of novel algorithms and data that enable the extraction of essential physical quantities and emergent behaviors of people from visual information. These results have been published widely in top international conferences and journals.
|
| Academic Significance and Societal Importance of the Research Achievements |
物体などの物理量を視覚情報から明示的に復元し、シーンを構成する素材を認識し、人をただ観察するだけでその視線行動や指差しなどの意図発現を捉え、環境の精緻な三次元復元を行い、その中の人物の姿勢を正確に求め、人間も知覚できない方法で表面構成などの物の質を捉えることができる計算機視覚を実現することにより、肉眼でも明らかな質感ばかりでなく、実体はないが感じ取られる質感を定量化する技術基盤を確立した。これらの成果を通し、我々の実世界を彩る質感の本質に迫る手段を広く実現することにより、より豊かな計算機と人間の共生基盤を樹立したばかりではなく、人間の質感認知機構の解明に資すると期待できる。
|