本研究では、ロボットが本当の意味で物事を“理解"するためにはどうすればよいか、という観点からロボットの知能の問題に取り組む。ここでまず重要なことは、“理解"の定義である。本研究では、物事に対する理解を、過去の経験をカテゴリ分類し、そのカテゴリを通した予測であると定義する。例えば、コップを見た場合の理解とは、そのオブジェクトから、液体を入れたり、飲むといった行為を予測できることである。この予測は、過去に他人があるコップに水を注いで飲んだり、自分自身がそのような経験することで形成される“コップ"というオブジェクトカテゴリ(=概念)に基づいている。従って、理解の基本となるのは、オブジェクトやイベントなどの経験に基づくカテゴリであり、ロボットが得ることのできる全ての感覚情報を駆使して、自らカテゴリ分類する能力が必要となる。本研究では、このカテゴリ分類を自ら(教師なしで)行うことのできるアルゴリズムの確立と、ロボットへの実装による「ロボットの真の理解の実現」を目的とする。 この目的のため、本年度は基本となる概念の形成アルゴリズムの検討と、実装するためのロボットプラットフォームの整備を行った。基本アルゴリズムの検討は、実際にロボットのセンサから得られる情報とその結果として得られる内部状態を時間方向でカテゴリ化する手法を検討し、実際にRNNを用いることでこれが可能であることを明らかにした。また、ロボットプラットフォームに関しては、従来の上半身型のヒューマノイドを改良し、移動型の双腕ロボットへと発展させた。これにより、移動を含めたより複雑な行動をとることが可能となり、来年度以降の研究の発展が期待できる。
|