• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

脳のモデルを用いた自己生成音抑制機能を備えた聴覚機能の研究

Research Project

Project/Area Number 13878066
Research Category

Grant-in-Aid for Exploratory Research

Allocation TypeSingle-year Grants
Research Field Intelligent informatics
Research InstitutionKyoto University

Principal Investigator

奥乃 博  京都大学, 情報学研究科, 教授 (60318201)

Co-Investigator(Kenkyū-buntansha) 河原 達也  京都大学, 情報学研究科, 助教授 (00234104)
Project Period (FY) 2001 – 2002
Project Status Completed (Fiscal Year 2002)
Budget Amount *help
¥2,100,000 (Direct Cost: ¥2,100,000)
Fiscal Year 2002: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2001: ¥1,400,000 (Direct Cost: ¥1,400,000)
Keywords自己生成音抑制 / アクティブ雑音抑制 / スペクトル減算 / 頭部音響伝達関数 / 耳朶 / 縄張り理論 / 実時間処理 / FPGA / 教師あり学習 / テンプレートマッチング / 音響と画像の情報統合
Research Abstract

前年度に報告したように、ロボットの耳として2本のマイクロフォンを使用し、2チャンネル入力から音源定位や音源分離をする応用を考えると、自己生成音抑制機能は、単体の聴覚機能としては機能するだけでは不十分であり、両耳間での位相差や強度差に影響を及ぼさない必要がある。とくに、自己生成音抑制機能は、位相差、に対しては線形変換でないと、両耳間位相差から音源定位をするのが極めて難しくなる。2年目は、昨年度に引続きノイズレベルの閾値の制御をモデルベースで行う方法に焦点を絞り、研究を進めた。
1.ロボットの耳の形状による影響-科学技術振興事業団北野プロジェクト作成のSIG(FRPで作成された頭と一体化した耳朶)、SIG2(合成樹脂でできた医学用の外耳道モデルの耳朶、合成樹脂シートを皮膚として装着)、大阪大学石黒教授グループ開発の人間の外見をしたReplie(耳朶はSIG2と同じ、本体そのものがシリコン)の3種類のロボットを用いて実験を行い、提案する手法の有効性を確認した。
2.頭部音響伝達関数の測定-従来の実験環境よりも3倍以上広い新しい実験環境で、縄張り理論に基づき「親密距離(【less than or equal】50cm)」「個人距離(【less than or equal】1m)」「社会距離(【less than or equal】2m)」「公衆距離(2m)」に分けて頭部音響伝達関数を測定し、各距離でノイズレベルの閾値への影響、さらに、残響の影響について検討を行った。
3.FPGA(Field-Programmable Gate Array)によるハードウェア化-昨年度提案したFFTのポイント毎にノイズレベルの閾値の制御をモデルベースは処理をリコンフィギャラブルなハードウェア化による高速化を検討した。具体的には、慶應義塾大学天野英晴教授と共同でFPGAによる実装をし、12MHz動作において、Pentium III (1GHz)の3倍程度の高速化が達成できた。

Report

(2 results)
  • 2002 Annual Research Report
  • 2001 Annual Research Report
  • Research Products

    (14 results)

All Other

All Publications (14 results)

  • [Publications] Nakadai, Okuno, Kitano: "Real-Time Auditory and Visual Multiple-Speaker Tracking For Human-Robot Interaction"Journal of Robotics and Mechatronics, special issue on Human Robot Interaction. 14・5. 479-489 (2002)

    • Related Report
      2002 Annual Research Report
  • [Publications] 中臺一博, 奧乃博, 北野宏明: "ヒューマノイドロボットを対象としたアクティブオーディション"人工知能学会誌. 18・2F. 104-113 (2003)

    • Related Report
      2002 Annual Research Report
  • [Publications] Nakadai, Hidai, Okuno, Kitano: "Real-Time Active Human Tracking by Hierarchical Integration of Audition and Vision"Proceedings of IEEE/RAS International Conference on Robots and Automation (ICRA-2002). 1043-1049 (2002)

    • Related Report
      2002 Annual Research Report
  • [Publications] Okuno, Nakadai, Kitano: "Realizing Audio-Visually triggered ELIZA-like non-verbal Behaviors"PRICAI 2002 : Trends in Artificial Intelligence, Lecture Notes in Artificial Intelligence, Springer-Verlag. 2417. 552-562 (2002)

    • Related Report
      2002 Annual Research Report
  • [Publications] Nakadai, Okuno, Kitano: "Exploiting Auditory Fovea in Humanoid-Human Interaction"Proceedings of Eighteenth National Conference on Artificial Intelligence (AAAI-2002). 431-438 (2002)

    • Related Report
      2002 Annual Research Report
  • [Publications] 鈴木, 中臺, 天野, 奧乃, 北野: "方向通過型音源分離フィルタへのFPGAの応用"電気情報通信学会VLD/CPSY研究会 (SLBM研究会共催). VLD/CPSY-25. (2003)

    • Related Report
      2002 Annual Research Report
  • [Publications] 日本認知科学会: "『認知科学辞典』推論・問題解決, コミュニケーションとネットワーク, CHインターフェース"共立出版. 1026+x (2002)

    • Related Report
      2002 Annual Research Report
  • [Publications] 奥乃博, 中臺一博: "ロボットの耳は二つで十分か"日本音響学会誌. 58・3. 205-210 (2002)

    • Related Report
      2001 Annual Research Report
  • [Publications] Okuno.Nakadai.Hidai.Mizoguchi.Kitano: "Human-Robot Interaction Through Real-Time Auditory and Visual Multiple-Talker Tracking"Proc. of IEEE/RSJ IROS-2001. 1402-1409 (2001)

    • Related Report
      2001 Annual Research Report
  • [Publications] Nakadai, Okuno, Kitano: "Real-Time Multiple Speaker Tracking by Multi-Modal Integration for Mobile Robots"Proc. of Eurospeech 2001. 1193-1196 (2001)

    • Related Report
      2001 Annual Research Report
  • [Publications] Nakadai, Hidai, Mizoguchi, Okuno, Kitano: "Real-Time Auditory and Visual Multiple-Object Tracking for Robots"Proc. of IJCAI 2001. Vol.2. 1425-1432 (2001)

    • Related Report
      2001 Annual Research Report
  • [Publications] Nakadai, Okuno, Kitano: "Real-Time Multiple Speaker Tracking by Multi-Modal Integration for Mobile Robots"Proc. of Eurospeech 2001. 1193-1196 (2001)

    • Related Report
      2001 Annual Research Report
  • [Publications] Okuno, Nakadai, Lourens, Kitano: "Sound and Visual Tracking for Humanoid Robot"IEA/AIE-2001, Springer-Verlag. LNCS 2070. 640-650 (2001)

    • Related Report
      2001 Annual Research Report
  • [Publications] Okuno, Nakadai, Lourens, Kitano: "Sound and Visual Tracking by Active Audition in "Enabling Society with Information Technology""Springer-Verlag, Tokyo, Berlin. 174-185 (2002)

    • Related Report
      2001 Annual Research Report

URL: 

Published: 2001-04-01   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi