1999 Fiscal Year Annual Research Report
ヒューマンマシンコラボレーションにおける信頼の証拠理論的モデルと解析
Project/Area Number |
11780299
|
Research Institution | The University of Electro-Communications |
Principal Investigator |
伊藤 誠 電気通信大学, 大学院・情報システム学研究科, 助手 (00282343)
|
Keywords | 自動化 / 信頼性 / 安全性 / ヒューマンマシン協調 / 人間工学 / 認知工学 / 人間中心の設計 / 信頼 |
Research Abstract |
1.「信頼」の概念整理:グレーゾーンを明示的に含むtrustのモデル (1)自動化システムへの信頼(trust)に関するこれまでの研究では,過信や不信を扱っていない.本研究では,trustを構造的にとらえるモデルを提案し,過信や不信がtrustの特殊ケースとして表現できることを明らかにした. (2)このモデルでは,trustを証拠理論的に表現可能,すなわち,信頼できるか否か断定できない状況を扱える.この判定不能性はtrustの「ゆらぎ」といえ,このゆらぎがtrustの変化において重要な役割を担うとの予想を得た. 2.実験データによるtrustの構造モデルの検証 (1)Trustは,従来主観評価で測定されたが,思考時間や自動化への委任の傾向等の客観指標で測定可能であることを明らかにした. (2)1(2)の予想を実験データから確かめた.昨年度の研究成果「自動化の誤動作について,発生回数が同じでも,連続するとtrust低下するが,離散的であるとtrustはあまり低下しない」ことは,連続誤動作ではtrustのゆらぎが不信感として定着するが,離散的発生の場合はtrustがゆらぐだけで不信感には至らないことと解釈できる. 3.信頼に誘発される不安全行動:認知実験による解明 (1)人間がコンピュータを信頼している場合,コンピュータが操作に介入するようになると,人間がそれに頼り,結果として下がるはずのリスクが下がらないことを確かめた. (2)自動化レベルの変化の方向によって人間の適応が異なることを解明した.自動化レベルが上がる場合,それによって低下するはずのリスクが直ちに補償されるが,自動化レベルが下がる場合,それによって減少する安全マージンの補償が起きにくい.
|