研究実績の概要 |
1.行動支援システムのグランドデザインの実施 行動支援システムの全体的な構成についてデザインを進めた。 1.1行動支援のシチュエーションパターンに関する考察 行動支援を必要とするシチュエーション(路上,地下道,駅など)について要支援者のヒアリングをおこなうなどしてリストアップし,カテゴライズすることによりパターンを得た。 1.2画像入力方式の検討 要支援者の周辺画像の取得には,第一には,Google Glassに代表されるメガネ様のウエアラブルデバイスを用いた。 1.3支援オブジェクトの選定 上記1.行動支援のシチュエーションパターンの選定し,実際の経路をウエアラブルデバイス装着して歩行することにより経路の動画を取得する。その動画を解析し,支援に供するべき支援オブジェクトの選定をおこなったうえで,オブジェクトの画像を選び出し,オブジェクト画像データベースの構築の検討を行った。データベースの構築には,オブジェクトの種類などの様々なオブジェクトに関する様々な属性を及びGroundtruth(正しい答え)をマニュアルにより付加する方法について考察した。 1.4要支援者に対する情報提供方法の検討 要支援者には,視覚障がい者と弱視者とがある。視覚障碍者への情報提供は音声・震動によるものが考えられる。弱視者については,視覚障がい者と同様の方法に加えて,ウエアラブルデバイスのディスプレイに注視すべき領域をハイライトで示す,あるいはズームアップするなど視覚的な表示も有効となる。この点に関しても視覚障がい者やその支援団体の協力を得て望ましい情報提供方法を明らかしつつある。 2.ボケ画像の強調方式のためのエッジ協調方式の開発 ボケ画像から,主にエッジ情報を得るための強調方式の基本設計を実施した。強調は,ラプラシアン画像を用いたマルチスケールな窓解析法(MSWL法)を新たに提案している。
|