研究課題/領域番号 |
20K19899
|
研究種目 |
若手研究
|
配分区分 | 基金 |
審査区分 |
小区分61050:知能ロボティクス関連
|
研究機関 | 京都先端科学大学 |
研究代表者 |
佐藤 啓宏 京都先端科学大学, 工学部, 講師 (00607591)
|
研究期間 (年度) |
2020-04-01 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2022年度: 910千円 (直接経費: 700千円、間接経費: 210千円)
2021年度: 650千円 (直接経費: 500千円、間接経費: 150千円)
2020年度: 2,600千円 (直接経費: 2,000千円、間接経費: 600千円)
|
キーワード | ロボティクス / 人間行動観察 / 無意識 / 記録と記憶 / 能動視覚 / 受動視覚 / 意識 |
研究開始時の研究の概要 |
本研究は、視覚が光学的な情報のみならず、視覚以外の感覚と連携し常に制御されていることに着目し「意識」の発現である“視るという行為”のシーケンスをモデル化することを目的とする。その結果から、ロボットにおける能動視覚制御の自律性向上を目指す。 人は「気配」を感じて目・首や体の方向を動かし視界を制御するが、これは視覚以外の感覚を用いて周囲を知覚して、興味の対象の情報を得ようと調整する能力である。音、空気の流れ、におい、エピソード記憶などが入力として使われていると推測する。 本研究は次の3つから構成される。 1.視る行為の基礎的なデータの蓄積 2.視覚運動の反応シーケンスのモデル化 3.ロボットによる再現
|
研究成果の概要 |
この研究では、人間の「視る行為」のデータ収集、視覚に関連する動作のモデル化、ロボットによる行動の再現、の3つの領域を探求した。しかし、COVID-19の影響で人を対象とする実験の実施が困難であった。データ収集では、簡易防音暗室を設置し、監視カメラと環境センサーを用いてデータを収集できる装置を開発した。動作のモデル化では、自己観察を行い、基本データを取得したが、温度や湿度などの変動幅が小さく、人手でラベル付けすることが困難であるため自動ラベル付けアルゴリズムを考察した。一方で、AIの進歩に伴い研究分野が大きく進展したため、新たに脳波デバイスを用いたAIとのコミュニケーションの基礎研究を行った。
|
研究成果の学術的意義や社会的意義 |
本研究では、COVID-19パンデミックの制約下で「人間の視る行為」についてデータ収集とモデル化を試みた。また人間の自然行動を模倣するロボットの開発により、人間の行動理解とAIとの新たなコミュニケーション手法の開発を目指した。開発したロボットの設計デザインはオンラインにて公開している。さらに、脳波デバイスを用いたAIとのコミュニケーションの基礎研究を開始した。これらの成果は、今後の実験によるデータ取得によって補完されて、当初目的のように自然なロボットの振る舞いを実現できるようになる。また、大規模言語モデルの大きな進展により、その外側を担うロボットの重要性が上がっており、開発の土台となるだろう。
|