最終年度には,前年度から引き続き,自律ロボットが収集した環境の画像を人間に提示するインタフェースの開発を行った.また,前年度までに完成していた自律ロボットの移動経路を人間の好みに応じて組み替えるデバイスとともに,人間と自律ロボットの相互寄与による効果をユーザスタディにより検証した.このユーザスタディには,デバイスを用いた空間の意味づけ・デバイスの状態をユーザに提示する手法の検討・画像収集ロボットを運用することにより得られる気づきの検証といったことが含まれる. 期間全体を通じて,当初目標としていた,ユーザが小型デバイスを配置するだけで目的地までの移動経路を自動的に計算する仕組みと,自律ロボットが収集した大量の画像の中からユーザにとって意味ある画像を優先的に提示する仕組みは完成し,それらを連続的に適用した際に感じられる変化について,多角的に評価を行った.その結果,デバイスを利用した実空間での教示はタブレットを利用したディスプレイ空間での教示より優位な点があること,デバイスの状態のすべてを提示するのではなく準備ができている・できていないと簡略化したほうがよい場合があること,人間の手助けを引き出しやすい自律ロボットのリアクション,人間の学習が進みやすい自律ロボットのふるまい,といった知見が得られた.以上の知見は,6件の学術論文・学会発表としてまとめた.
|