• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2013 Fiscal Year Annual Research Report

ライフログを利用した重複肢体不自由者の視線入力型日本語入力システムの研究開発

Research Project

Project/Area Number 24650350
Research InstitutionUniversity of Yamanashi

Principal Investigator

小谷 信司  山梨大学, 医学工学総合研究部, 教授 (80242618)

Co-Investigator(Kenkyū-buntansha) 鈴木 良弥  山梨大学, 医学工学総合研究部, 教授 (20206551)
渡辺 寛望  山梨大学, 医学工学総合研究部, 助教 (30516943)
Keywordsライフログ / 視線入力 / 重複肢体不自由者
Research Abstract

「視線検出とNIRS(光トポグラフィー)による発話不可肢体不自由者コミュニケーションシステムの実現」を目指した研究である。発話不可 肢体不自由者の場合、通常のコミュニケーション手段は全く使えない。本研究ではライフログ(画像と音声)と現在の周囲状況を手がかりに、時空間的に構成されたパーソナル辞書を切り替えて利用し少ない視線入力文字で的確な日本語変換を実現し、円滑なコミュニ ケーションを実現することを目的としている。本研究の特色は、1. ライフログを利用した「静的属性」、2. 時空間的に構成された「基本属性」、3. 周囲・人物・環境を認識した「動的属性」を融合して予測変換を行い、少ない文字入力数での変換精度を向上させることである。
平成24年度は、要素研究、基礎研究を行った。被験者は安全性と再現性を考慮して、すべて健常者で行った。本研究での最大の課題は、画像情報を利用した一般物体認識である。実環境で行うため、ロバストな手法が必須である。そのため、局所特徴量としてSIFT、 SURFを用いた。実環境の基本処理ライブラリは、過去の科研費課題で開発済みである。その他にも、文字列取得のためにSVM、各識別のためにB.o.F.、主成分分析、識別器を用いた。検出率向上のために、深度(奥行き)情報を併用した。ライフログの音声部分に関しては、単語の自動取得部分と累積、忘却の機能を実現するプロトタイプシステムを作成した。
平成25年度は、山梨県あけぼの支援学校に協力を依頼し、定期的に重複肢体不自由の生徒と取り組みを行った。
本研究により時空間的に構成された基本属性と、画像と音声の静的な情報から動的な情報までを一貫利用することで研究の基盤を確立でき発話不可肢体不自由者の円滑なコミュニケーションを実現する意義は非常に大きい。さらに、健常者の日本語入力システムへのフィードバックも大いに期待できる。

  • Research Products

    (3 results)

All 2014 Other

All Journal Article (2 results) (of which Peer Reviewed: 2 results) Remarks (1 results)

  • [Journal Article] 画像センサと距離センサによる2.5次元地図の生成と評価2014

    • Author(s)
      庄司和晃、渡辺寛望、小谷信司
    • Journal Title

      電気学会論文誌C

      Volume: Vol.134, No.2 Pages: 183-191

    • DOI

      10.1541/ieejeiss.134.183

    • Peer Reviewed
  • [Journal Article] R&D of the Japanese Input Method using Life Log2014

    • Author(s)
      Syoji Kazukai, Hiromi Watanabe and Shinji Kotani
    • Journal Title

      Int'l Conf. on PhyCS

      Volume: Wed8-3 Pages: 207,213

    • Peer Reviewed
  • [Remarks] http://www.ccn.yamanashi.ac.jp/~kotani/

URL: 

Published: 2015-05-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi