• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

Construction and Application of a Multilingual Corpus for the Studies of Post-Documentary Arts

Research Project

Project/Area Number 20H01217
Research InstitutionTokyo National University of Fine Arts and Music

Principal Investigator

桂 英史  東京藝術大学, 大学院映像研究科, 教授 (60204450)

Co-Investigator(Kenkyū-buntansha) 桐山 孝司  東京藝術大学, 大学院映像研究科, 教授 (10234402)
布山 毅  東京藝術大学, 大学院映像研究科, 教授 (10336654)
西條 朋行  東京藝術大学, 大学院映像研究科, 講師 (50373014)
高山 明  東京藝術大学, 大学院映像研究科, 教授 (60748333)
畠山 直哉  東京藝術大学, 大学院映像研究科, 教授 (60817641)
和田 信太郎  東京藝術大学, 大学院映像研究科, 助教 (80648353)
Project Period (FY) 2020-04-01 – 2023-03-31
Keywords音声コーパス / ポストドキュメンター / エッセイフィルム
Outline of Annual Research Achievements

本研究では、アーティストから提供された音声データをテキスト化し、形態素解析を行い、単語の頻度を分析し、多様な音声データを含む多言語コーパスのプロトタイプを作成することができた。このコーパスは、リサーチを基礎としたエッセイフィルムなどのポストドキュメンタリー作品において貴重な資源となる。
さらに、本研究は多言語音声コーパスの作成だけでなく、そのコーパスを検索したり、頻度を視覚化するためのVRインタフェースの構築にも取り組んだ。これにより、研究者や芸術家は直感的で効果的な方法でコーパスを閲覧できることが可能となった。このVRインタフェースは、芸術実践論の立場から、音声から再生産された文字表象を活用した、新たな研究手法の一例として注目されるべきであると考える。
本研究によって、リサーチを基礎としたエッセイフィルムなどのポストドキュメンタリー作品における音声データの重要性が再確認された。音声データは映像作品を制作するアーティストの表現や意図を直接伝える手段であることは言うまでもなく、それをテキスト化して分析することで、作品の深層を探求することが可能となる。さらに、テキスト化したデータの形態素解析による単語の頻度分析は、作品における重要なテーマや要素を明らかにする上で役立ちます。
この研究の成果は、芸術実践論におけるポストドキュメンタリー作品の研究への貢献として評価されるべきです。また、VRインタフェースの開発によって、研究者や芸術家がデータを効果的に利用し、新たな洞察を得ることができる環境を提供することを示唆ししている。以上の成果を、「声の記憶術」として論考を寄稿し、さらには研究分担者との対論を含む成果報告を小冊子として編集・製作し、無料頒布している。
今後とも、引き続き、より多様な音声データを含むコーパスを更新し、さらに洗練されたVRインタフェースの開発に取り組む予定である。

Research Progress Status

令和4年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和4年度が最終年度であるため、記入しない。

  • Research Products

    (1 results)

All 2023

All Journal Article (1 results) (of which Open Access: 1 results)

  • [Journal Article] 声の記憶術: 韻律というプロトコル2023

    • Author(s)
      桂英史
    • Journal Title

      LOOP13 映像メディア学

      Volume: 13 Pages: 4-43

    • Open Access

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi