2012 Fiscal Year Research-status Report
人間に近い器用さと知覚能力により,能動的相互作用可能な人間協調型ロボットの開発
Project/Area Number |
23700238
|
Research Institution | Waseda University |
Principal Investigator |
S.ALFA RO.Jor 早稲田大学, 理工学術院, その他 (60434289)
|
Keywords | 知識ロボット |
Research Abstract |
本年度は,上半身動作によって演奏者に演奏開始タイミングの指示を可能にする腰部,および人間の口唇の弾性を再現した新型口唇部を有する,人間形サキソフォン演奏ロボットWAS-3(WAseda Saxophonist No.3)を開発した.可動腰部は人間と同等の,前傾40[deg],後傾30[deg]の可動角を持ち,ばねとプーリを用いた自重補償機構を備えることで,演奏開始動作に必要な変位量36.8[mm],変位時間200[ms]を実現した.口唇部弾性を人間と同等とするため,演奏時の口唇の弾性を測定し,弾性率を0.7[N/mm]と求めた.これを用いて,サキソフォン演奏時の口唇の弾性モデルを決定し,吹鳴音の周波数成分の比較によって評価を行った.演奏実験においては,楽曲「She」をデュエットで演奏することに成功し,本年度開発したシステムの有用性を確認した. 一方,人間の直観的動作に基づいた,インタクションシステムの構築を行った. 検知方法としては,視覚機構を用い,人間の体の広がりの大きさを検知し,また,IMUを併用することによって,人間の動作速度の検知を行った.人間同士がパフォーマンスを行う際の動作と音の関係を取得し関係を調査し,特に右手速度と音階変化回数,身体距離と音階範囲の関係に着目し,回帰分析することで演奏ルールの構築を行った. さらに,演奏者の動作とロボットの演奏音がどれほど同調されたか表わす指標として同調度評価関数を製作した. 製作したインタラクションシステムを用いてロボットと人間のパフォーマンス実験を行い,その様子を撮影した動画を用いてアンケート調査をしたところ,インタラクションなしに比べ,インタラクションありの方が,人間同士との演奏の類似度,ダンサーの動きによって演奏に変化が起こる,どちらの項目に関して,高い結果が得られ,今回製作したシステムの有用性を確認した.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
弾性材料を用い楽器のリードを押さえる口唇部,アタックやレリースといった演奏技法が可能な舌・口腔部,全吹鳴音にわたって運指が可能な指部,楽器に空気を送り込む小型軽量なエアポンプを用いた肺部といったサキソフォンの演奏に必要なハードウェアの開発を行ってきた.また,共演者とのインタラクションのため,視覚情報を取得する眼部の開発や演奏中の動作を再現するための可動腰部を開発した.また,演奏における重要なパラメータである口腔内圧力やピッチ,運指タイミングをFB誤差学習によるフィードフォーワード系で制御するシステムや,演奏中の裏返り音の検出システム,そして演奏能力の向上を定量的に評価するための評価関数に関する研究も行ってきた.
|
Strategy for Future Research Activity |
ステージ上で楽器演奏者同士のインタラクションにおいては音と演奏に付随する動作によって,情緒・感性のやりとりが行われる.現状のサキソフォン演奏ロボットは,休符時の演奏停止ができず,演奏の自由度も少ないものとなっている. そこで本年度は,ロボットの空気圧系を改良し,より人間的な演奏能力をもって高度な共演者への対応能力をが実現したインタラクションシステムの構築を行う. 昨年度はダンサーの動作を元にロボットの演奏パターンを変化させる基礎的なインタラクションシステムを構築した,しかし,取得情報とパターンの分類要素が少なく,ロボットの人間的な演奏の実現としては不十分であった.本年度は多様なダンサーの動きの要素に対応できる演奏ルールの改良と共に,休符の実現や,演奏中動作をより人間的にすることで,ロボットのパフォーマンスを向上させる.一方、現状のインタラクションシステムは共演者の即興フレーズやアドリブに対応ができない.本研究においては以下の方法により,即興演奏に対応可能なインタラクションを行うことを目標とする. 1)IMU,CCDカメラによって演奏中の共演者動作を検知する.2)演奏動作より次に行われる演奏パターンとの相関をもとにロボットを演奏ルールを決定する.3)共演者のフレーズ内の音階,音圧,テンポと2)の演奏ルールからロボットの演奏フレーズを自動作成し,共演者との自然な演奏インタラクションを行う.上記アプローチをタブレット端末など利用したUIを新たに開発することで,ユーザのロケーションに依存することなくリハーサルを行い,楽譜生成を実現する.
|
Expenditure Plans for the Next FY Research Funding |
収支決算報告書の次年度使用額の合計が284,882円となり、翌年度に請求する研究費(物品費)と合わせることとする.翌年度には物品費(48万円)と旅費(30万円)および人件費(0円)・謝金(0円)の使用計画されている.
|