• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2020 Fiscal Year Annual Research Report

Deep semantic annotation of video contents

Research Project

Project/Area Number 17H01831
Research InstitutionWaseda University

Principal Investigator

林 良彦  早稲田大学, 理工学術院, 教授(任期付) (80379156)

Co-Investigator(Kenkyū-buntansha) 加藤 恒昭  東京大学, 大学院総合文化研究科, 教授 (60334299)
小川 哲司  早稲田大学, 理工学術院, 教授 (70386598)
植木 一也  明星大学, 情報学部, 准教授 (80580638)
Project Period (FY) 2017-04-01 – 2021-03-31
Keywords情報資源の構築・管理 / 動画 / 意味的注釈 / シーングラフ生成 / 動作・動作記述生成 / 動詞意味論 / オントロジー / コモンセンス知識
Outline of Annual Research Achievements

本研究の目的は,動画中の動作内容を表す意味注釈を付与する方式を実現することにある.最終年度にあたる2020年度,および,期間延長した2021年度は,関連する技術項目に関して,以下の進捗を得た.(論文:2件,国際会議発表 (査読・会議録有り):7件,国内会議発表:13件)
(1) シーングラフの効率的かつ高精度な生成: 動画におけるキーフレーム画像の内容を端的に表すシーングラフを生成する.今期は,画像中の物体間の階層的な関係 (例: 全体-部分) を利用することにより,計算の効率化とシーングラフ生成の精度向上を両立させる方式の検討を進め,既存研究を上回る精度を達成した.
(2) 動作と言語の相互変換・生成: ロボットの動作をキャプチャした動画とそれに対する説明キャプションが付与されたデータセットをもとに,ロボットの関節角の時系列で表される動作と言語との相互変換・生成に関する検討を進め,未知語の存在に対しても頑健な方式を明らかにした.また,少量の動作と動作記述とのペアデータデータを用いて動作・言語記述の相互変換を実現する学習方式について,一定の見通しを得た.
(3) 言語の意味表現に関する基礎研究の推進: 動作記述の生成や動作の生成において重要となる事物に関する属性情報を予測する手法について検討を進めた.また,動作記述の時系列的側面を捉えるために重要となる動詞意味論に関してこれまでの知見の整理を進めた.
(4) コモンセンス知識適用に関する検討: シーングラフ生成や動作記述生成において,人間が有するコモンセンス知識を適用することの必要性・有用性が明らかになった.そこで,本課題だけでなくより広範囲な言語処理タスクへの適用を視野に必要な研究課題を明らかにし,新たな科研費研究課題を提案した (2022年度~2024年度基盤研究Cとして新規採択).

Research Progress Status

令和2年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和2年度が最終年度であるため、記入しない。

  • Research Products

    (23 results)

All 2022 2021 2020

All Journal Article (2 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (20 results) (of which Int'l Joint Research: 7 results,  Invited: 1 results) Book (1 results)

  • [Journal Article] Learning Bidirectional Translation between Descriptions and Actions with Small Paired Data2022

    • Author(s)
      Toyoda Minori、Suzuki Kanata、Mori Hiroki、Hayashi Yoshihiko、Ogata Tetsuya
    • Journal Title

      Arxiv

      Volume: arXiv:2203.04218 Pages: 1~8

    • DOI

      10.48550/arXiv.2203.04218

    • Open Access
  • [Journal Article] Embodying Pre-Trained Word Embeddings Through Robot Actions2021

    • Author(s)
      Toyoda Minori、Suzuki Kanata、Mori Hiroki、Hayashi Yoshihiko、Ogata Tetsuya
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 6 Pages: 4225~4232

    • DOI

      10.1109/LRA.2021.3067862

    • Peer Reviewed
  • [Presentation] Towards the Detection of a Semantic Gap in the Chain of Commonsense Knowledge Triples2022

    • Author(s)
      Yoshihiko Hayashi
    • Organizer
      LREC 2022 (accepted)
    • Int'l Joint Research
  • [Presentation] Evaluating the Effects of Embedding with Speaker Identity Information in Dialogue Summarization2022

    • Author(s)
      Yuji Naraki, Tetsuya Sakai, Yoshihiko Hayashi
    • Organizer
      LREC 2022 (accepted)
    • Int'l Joint Research
  • [Presentation] 言語と動作の統合表現獲得による双方向変換2022

    • Author(s)
      豊田みのり, 林 良彦, 鈴木彼方, 尾形哲也
    • Organizer
      言語処理学会第28回年次大会 (NLP2022)
  • [Presentation] 要約の生成過程を考慮した弱教師あり学習による生成型要約のエラー検出2022

    • Author(s)
      高塚雅人, 小林哲則, 林 良彦
    • Organizer
      言語処理学会第28回年次大会 (NLP2022)
  • [Presentation] グラフ表現による文章の構造情報を用いた機械読解2022

    • Author(s)
      小坂直輝, 小林哲則, 林 良彦
    • Organizer
      言語処理学会第28回年次大会 (NLP2022)
  • [Presentation] Survey of Visual-Semantic Embedding Methods for Zero-Shot Image Retrieval2021

    • Author(s)
      Kazuya Ueki
    • Organizer
      ICMLA 2021
    • Int'l Joint Research
  • [Presentation] Waseda_Meisei_SoftBank at TRECVID 2021: Ad-hoc Video Search2021

    • Author(s)
      Kazuya Ueki, Takayuki Hori, Yongbeom Kim, Yuma Suzuki
    • Organizer
      TRECVID 2021 Workshop
    • Int'l Joint Research
  • [Presentation] TRECVID映像検索ベンチマーク:AVSタスクへの6年間の挑戦と技術の進歩2021

    • Author(s)
      植木一也
    • Organizer
      ビジョン技術の実利用ワークショップ (ViEW2021)
    • Invited
  • [Presentation] 意思決定支援のための解釈可能な映像監視システムの開発フローと繁殖牛の分娩予兆検知への応用2021

    • Author(s)
      兵頭亮介,斎藤奨,中野鐵兵,小川哲司
    • Organizer
      第24回画像の認識・理解シンポジウム (MIRU2021)
  • [Presentation] 測の不一致に基づく深層学習モデルの不確実性推定とクラウドソーシングを用いた映像監視への応用2021

    • Author(s)
      松永直輝,斎藤奨,中野鐵兵,小川哲司
    • Organizer
      第24回画像の認識・理解シンポジウム (MIRU2021)
  • [Presentation] 同時機械翻訳のための文脈を考慮したセグメントコーパス2021

    • Author(s)
      中林明子, 加藤恒昭
    • Organizer
      言語処理学会第27回年次大会 (NLP2021)
  • [Presentation] 単語の重要度に応じてパラメタ数可変な単語分散表現の学習2021

    • Author(s)
      露木浩章, 小川哲司, 小林哲則, 林 良彦
    • Organizer
      言語処理学会第27回年次大会 (NLP2021)
  • [Presentation] コモンセンス知識を利用した物語中の登場人物の感情推定2021

    • Author(s)
      田辺ひかり, 小川哲司, 小林哲則, 林 良彦
    • Organizer
      言語処理学会第27回年次大会 (NLP2021)
  • [Presentation] 抽出型要約の書き換えによる要約生成2021

    • Author(s)
      高塚雅人, 小林哲則, 林 良彦
    • Organizer
      言語処理学会第27回年次大会 (NLP2021)
  • [Presentation] 雑談対話システムにおけるユーザーからの返答を考慮した発話生成2021

    • Author(s)
      小堀智さと, 小林哲則, 林 良彦
    • Organizer
      人工知能学会第91回 言語・音声理解と対話処理研究会
  • [Presentation] グラフによるテキスト表現の機械読解における適用性評価2021

    • Author(s)
      小坂直輝, 小林哲則, 林 良彦
    • Organizer
      2021年度人工知能学会全国大会
  • [Presentation] 対話要約における話者情報を持つEmbeddingの効果2021

    • Author(s)
      楢木悠士, 酒井哲也, 林 良彦
    • Organizer
      第20回情報科学技術フォーラム (FIT2021)
  • [Presentation] Exploring and Exploiting the Hierarchical Structure of a Scene for Scene Graph Generation2020

    • Author(s)
      Ikuto Kurosawa, Tetsunori Kobayashi, Yoshihiko Hayashi
    • Organizer
      ICPR 2020
    • Int'l Joint Research
  • [Presentation] Exploiting Narrative Context and A Priori Knowledge of Categories in Textual Emotion Classification2020

    • Author(s)
      Hikari Tanabe, Tetsuji Ogawa, Tetsunori Kobayashi, Yoshihiko Hayashi
    • Organizer
      COLING 2020
    • Int'l Joint Research
  • [Presentation] Word Attribute Prediction Enhanced by Lexical Entailment Tasks2020

    • Author(s)
      Mika Hasegawa, Tetsunori Kobayashi, Yoshihiko Hayashi
    • Organizer
      LREC 2020
    • Int'l Joint Research
  • [Book] 動詞語義の階層的分類と自他対応 (岡部玲子ほか 編: 言語研究の楽しさと楽しみ)2021

    • Author(s)
      加藤恒昭
    • Total Pages
      536ページ (分担執筆担当 11ページ)
    • Publisher
      開拓社
    • ISBN
      978-4-7589-2300-2

URL: 

Published: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi