研究概要 |
平成14年度では,ヒューマンマシンシステムにおける自動化に対する過信という概念の多様性に注目し,その整理を行った.このことによって,従来大規模システムで注目されたいた自動化への過信の問題と,自動車等多様なユーザが日常的に使用するシステムにおける自動化への過信の問題との間の,類似点,相違点を明らかにすることができた.このことに関連して,航空機の分野では過信の防止にCRM(クルーリソースマネジメント)訓練が有効に機能していることを,パイロットへのアンケートを通じて明らかにした.これに対し,自動車の場合,CRMの手法は適用できないことから,ヒューマンインタフェースや自動化のロジックのデザインによって,過信を防止する手段を講じる必要がある. 過信を防止する手段を開発するためには,過信に至るメカニズムを解明しなければならない.そこで,信頼から過信に至る認知的メカニズムを解明するための実験方法を構築し,過信に至るプロセスとその要因,過信を防止するための方法を調べる基礎的な実験を行った.その結果,自動化の動作限界に関する理解,とくにその限界が生じることの理由をユーザに理解させることが,過信を抑制する効果があることを明らかにした. さらに,自動車における衝突警報を題材として,実際にどのような信頼や過信が現れるかを高性能ドライビングシミュレータを用いて調べた.その結果,ドライバーが警報システムを信じきっていると,欠報があった場合に反応時間が0.5秒程度遅れることがあることを明らかにした.また,欠報を数度経験することにより,ドライバー自身で状況を把握しようとする(過信が消滅する)が,警報が提示された場合にはそれを信用する傾向があることを明らかにした.
|