本年度は、1.異なるエージェントの帰納推論能力の比較に関する研究、および2.エージェントが行う不誠実な推論の論理に関する研究を行った。具体的研究内容は以下の通りである。 1.帰納推論は観測事例から一般規則を導く仮説推論で、演繹、アブダクションと共に人工知能における代表的な推論形式の一つとして知られている。異なる背景知識を持つ複数のエージェントが帰納推論を行うとき、どのような観測事例に対しても生成される仮説が一致する場合、これらのエージェントは帰納推論能力が等しいと考えられる。本研究ではさまざまな形式の帰納推論について、エージェントの帰納推論能力が等価であるための必要十分条件を検討した。本研究はマルチエージェントシステムにおいて異なるエージェントの帰納推論能力を比較し、帰納推論能力が等価であるエージェントから発見される仮説知識は同じであることを保証するものである。 2.人工知能におけるエージェントは誠実で自らの信念に従って行動することが前提とされている。一方、人間は社会生活において自らの利益を確保するために、ウソをついたり相手をだましたりするため、誠実なエージェントから構成されるマルチエージェントシステムは人間社会を正確にモデル化したものとはいえない。そこで、本研究ではエージェントが社会的環境において自らの利益を確保するために、状況に応じて不誠実な推論を行い利己的に振舞う行動原理を、様相論理を使って形式化した。本研究はエージェントが不誠実に振舞う行動原理をモデル化することで、誤った情報を提供するエージェントを同定し、不誠実なエージェントからユーザを護るためのステップと位置づけられる。
|