• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2023 Fiscal Year Annual Research Report

Creation of an Adaptive Learning Environment based on Biological Information Analysis when Learning with Comic Books

Research Project

Project/Area Number 19K21763
Research InstitutionOsaka University

Principal Investigator

白井 詩沙香  大阪大学, サイバーメディアセンター, 講師 (30757430)

Co-Investigator(Kenkyū-buntansha) ORLOSKY JASON  大阪大学, サイバーメディアセンター, 特任准教授(常勤) (10815111)
長瀧 寛之  大阪電気通信大学, メディアコミュニケーションセンター, 特任准教授 (20351877)
武村 紀子  九州工業大学, 大学院情報工学研究院, 准教授 (60733110)
上田 真由美  流通科学大学, 経済学部, 教授 (30402407)
Project Period (FY) 2019-06-28 – 2024-03-31
Keywords漫画 / ラーニングアナリティクス / 視線解析 / 学習支援システム
Outline of Annual Research Achievements

本研究の目的は,マンガ教材を用いた学習において,個別最適化された学習支援を実現することである。研究目的を達成するために,マンガ教材読書時の主観的難易度推定モデルとその推定結果に基づき学習支援を行う個別適応型学習システムの構築を行う。
2023年度は,VR空間における適応的学習環境を対象に,補助教材・補足情報を提示する際のインタラクション手法の検討に取り組んだ。具体的には,(1) VR空間で漫画を読んでいる最中に,補足情報を選択・決定する際の最適な手法と(2) VR空間で漫画を読んでいる最中に、補足情報を提示する最適なインタラクション手法を明らかにするために,2種類の被験者間実験を行った。実験1では,学習者が任意のタイミングで補足情報を参照する場合を想定し,選択・決定を全てコントローラーで行う条件(Controller条件),全て視線で行う条件(Gaze条件),選択を視線・決定をコントローラーで行う条件(Hybrid条件)の3条件を比較した。実験の結果,素早い選択操作に関するアンケート項目でコントローラーが視線より有意に満足度が高い結果となった。実験2では,補足情報があることを示すアイコンが固定されている条件(Fixed条件)とコマの枠にそってアイコンが視線位置に最も近い位置に移動する条件(Regular Move条件)とセリフなどを避けつつ視線に近い位置に移動する条件(Dynamic Move条件)を比較した。実験の結果,ユーザビリティに関する主観評価において,Fixed条件が他の条件と比べて,有意に満足度の高い結果となった。二次元教材を用いた適応的学習環境には,任意のタイミングで補足情報を参照できるインタラクション手法が好まれることがわかった。

  • Research Products

    (2 results)

All 2024 Other

All Int'l Joint Research (1 results) Presentation (1 results)

  • [Int'l Joint Research] Augusta University(米国)

    • Country Name
      U.S.A.
    • Counterpart Institution
      Augusta University
  • [Presentation] 視線,表情,心拍,脳波を用いたVR空間でのマンガ教材読書時の主観的難易度推定2024

    • Author(s)
      石塚 裕之, 坂本 賢哉, 白井 詩沙香, Jason Orlosky, 平尾 悠太朗, Monica Perusquia Hernandez, 磯山 直也, 内山 英昭, 清川 清
    • Organizer
      電子情報通信学会 メディアエクスペリエンス・バーチャル環境基礎研究会

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi