公募研究
本研究では、記号的生成モデルおよび深層ニューラルネットワークに基づく神経計算モデルを構築し、脳情報処理データで検証することで、自然言語の計算システムを解明することを目的としています。新型コロナウイルス感染症の影響により、脳磁場および皮質脳波による新規の脳情報処理データこそ完成しませんでしたが、眼球運動による既存の認知処理データを用いて、記号的生成モデルと再帰的ニューラルネットワークを融合した深層生成モデルである再帰的ニューラルネットワーク文法(Recurrent Neural Network Grammar)が、純粋な再帰的ニューラルネットワークと比べて人間らしいことを示し、更に並列処理による高速化を実現しました。また、アテンション機構を備えた大規模な深層ニューラルネットワークであるトランスフォーマー(Transformer)が、工学的には世界最高性能を達成しているにも関わらず、強力すぎる作業記憶を持つため人間らしくないことを示し、加えて記号的生成モデルとトランスフォーマーを融合した深層生成モデルであるトランスフォーマー文法(Transformer Grammar)を開発しています。以上の研究成果は、自然言語処理のトップカンファレンスであるACLおよびEMNLPにて、3本の論文として発表・出版しています。なお、本研究課題は、JSTさきがけ「信頼されるAIの基盤技術」領域「認知・脳情報処理による人間らしい言語処理モデルの開発」へと発展しています。
令和2年度が最終年度であるため、記入しない。
すべて 2022 2021 その他
すべて 雑誌論文 (5件) (うち国際共著 1件、 査読あり 5件、 オープンアクセス 5件) 備考 (5件)
Proceedings of the Society for Computation in Linguistics 2022
巻: - ページ: 101-111
10.7275/kne0-hc86
Advanced Robotics
巻: 36 ページ: 3-16
10.1080/01691864.2021.2011780
Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing
巻: - ページ: 2964-2973
10.18653/v1/2021.emnlp-main.235
Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers)
巻: - ページ: 5203-5217
10.18653/v1/2021.acl-long.405
Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021
巻: - ページ: 4340-4352
10.18653/v1/2021.findings-acl.380
http://www.brain-ai.jp/jp/
http://phiz.c.u-tokyo.ac.jp/~oseki/
https://www.u-tokyo.ac.jp/adm/fsi/ja/projects/ai/
https://www.tohoku.ac.jp/japanese/2021/08/press20210819-03-ai.html
https://yumenavi.info/vue/lecture.html?GNKCD=g011513