2017 Fiscal Year Annual Research Report
A smart chemistry experimental environment for affirmative safety training and safe experiment
Project/Area Number |
15K00265
|
Research Institution | Tokyo University of Agriculture and Technology |
Principal Investigator |
藤波 香織 東京農工大学, 工学(系)研究科(研究院), 准教授 (10409633)
|
Project Period (FY) |
2015-04-01 – 2018-03-31
|
Keywords | プロジェクタ・カメラシステム / 化学実験 / 機械学習応用 / 拡張現実感 / ウェアラブルシステム |
Outline of Annual Research Achievements |
本研究では,安全な実験を支援しつつも適度な支援は控えて「安全ボケ(依存)」を防ぐシステム構成法を明らかにすることを目的とした.主に,1)情報の迅速かつ正確な伝達手法と,2)後の振り返りに有効な静止画像の選定手法を開発した.
1)においては,3つの取り組みを行った.まず,手首全周型ディスプレイを装着した前提で,前腕の姿勢にかかわらず最も視認性が高い位置に情報提示を行うための位置決定手法を開発した.前腕に装着した慣性センサ値と,その様々な状態時の視認性評価値の関係を機械学習によりモデル化し,十分視認性の高い位置と角度の推定精度においてそれぞれ0.72と0.75を得た.2点目として,卓上方からのプロジェクタによる情報投影時に投影面の状態を考慮した最適な投影位置の決定法を考案した.提案手法は,卓上物への投影情報の重なりを許して,極力視認性が低下しない箇所を探索する.視認性の低下要因を調査し,卓上方のカメラから得た画像からラベルとリンク線のそれぞれに対して88次元,28次元の特徴量を計算し,機械学習により視認性レベルの推定モデルを構築した.実験の結果,推定精度0.91と0.76を得た.3点目に,卓上にPCモニタやスマートフォン等の情報通知装置が散在するケースで,情報通知に最適なものを選定する手法を開発した.前記2つと同様に,利用者とデバイスの状態と, 7段階の「好ましさ」の関係を機械学習によりモデル化し,推定精度0.44を得た.「利用者がデバイスを見ている状態」が最も貢献することを確認した.
2)においては,将来的に身体に装着して実験作業を一人称視点で記録した動画の中から意味があるシーンを静止画として切り出し,振り返りや学習コンテンツを作成することを狙った.特に,カメラ装着者の体の動きによる画面のブレや天井や床などの情報量が少ない構図のフレームの除外をするための手法を考案した.
|