研究課題/領域番号 |
23K21872
|
補助金の研究課題番号 |
22H00600 (2022-2023)
|
研究種目 |
基盤研究(B)
|
配分区分 | 基金 (2024) 補助金 (2022-2023) |
応募区分 | 一般 |
審査区分 |
小区分01010:哲学および倫理学関連
|
研究機関 | 北陸先端科学技術大学院大学 |
研究代表者 |
水本 正晴 北陸先端科学技術大学院大学, 先端科学技術研究科, 准教授 (70451458)
|
研究分担者 |
藤田 耕司 京都大学, 人間・環境学研究科, 名誉教授 (00173427)
和泉 悠 南山大学, 人文学部, 准教授 (10769649)
NGUYEN MinhLe 北陸先端科学技術大学院大学, 先端科学技術研究科, 教授 (30509401)
橋本 敬 北陸先端科学技術大学院大学, 先端科学技術研究科, 教授 (90313709)
|
研究期間 (年度) |
2022-04-01 – 2026-03-31
|
研究課題ステータス |
交付 (2024年度)
|
配分額 *注記 |
11,700千円 (直接経費: 9,000千円、間接経費: 2,700千円)
2025年度: 3,640千円 (直接経費: 2,800千円、間接経費: 840千円)
2024年度: 2,210千円 (直接経費: 1,700千円、間接経費: 510千円)
2023年度: 2,470千円 (直接経費: 1,900千円、間接経費: 570千円)
2022年度: 3,380千円 (直接経費: 2,600千円、間接経費: 780千円)
|
キーワード | use theory of meaning / linguistic competence / large language model / linguistic diversity / philosophy of language / NMT / langauge model / translation / theory of meaning / 意味の理論 / 深層学習 / 翻訳 / コーパス / 意味の使用説 |
研究開始時の研究の概要 |
本研究は、実験哲学による人々の言語使用や判断についてのデータをもとに、NMTおよびLLM一般を訓練し、そのパフォーマンスの評価を通して意味の使用説や真理条件意味論の妥当性を考察する。またそのための材料となる具体的なデータを提供することを目指す。その過程でNMTおよびLLMの言語の使用の能力は「言語能力」と言えるのか、あるいは言語学者の言う言語能力とは何か、を具体的に考えるきっかけとそのためのデータを提供することをも目的の一つとする。
|
研究実績の概要 |
本年度は、4月と6月、9月にメンバーを対象としたオンラインミーティングおよびセミナーを行った。3月には言語モデルと言語能力というタイトルのハイブリッドセミナーを行い、言語モデルは言語能力を実現できるのか、「言語能力」は人間に特有のものか、多重実現できるものなのか、などを議論した。 また、日本語と英語の比較的小規模なパラレルコーパスに基づきTransformerで実験的な翻訳エンジンを構築し、振る舞いをテストした。また、DeepLなどの翻訳エンジン、およびChatGPTを使った日本語の知識述語の翻訳や穴埋め問題を使ってテストしたが、結果としてそうした言語モデルも日本語の能力は、日本語の使用のデータ(コーパス)に基づくため、高性能になればなるほど英語の回答との矛盾を正しく反映し、哲学的概念の言語的多様性の問題の存在と、それによる多言語のAIの自己矛盾を示すことができた。 Teoriaに出版されたA prolegomenon to the empirical cross‐linguistic study of truthは、そうした言語的多様性に新たな次元を加えるものであり、Inquiryに出版されたThe argument from accidental truth against deflationism とともに、真理条件意味論に対する哲学者のナイーブな前提に疑問を投げかけるものであり、言語の哲学と実験哲学のアンソロジーにて出版されるExperimental Philosophy and Ordinary Language Philosophyは、意味の使用説についての歴史的、経験的探究の観点からの正当化であり、当然ながら現代のニューラル翻訳機械(NMT)および言語モデル一般の意味理解についての理論的根拠の一つとなる。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
特に問題は生じておらず、今後大きな問題が生じることも予想されていない。むしろ、言語モデルの急速な発展により、今後研究がより容易になる可能性がある。
|
今後の研究の推進方策 |
前年度は日本語と英語の比較的小規模なパラレルコーパスに基づきTransformerで実験的な翻訳エンジンを構築し、振る舞いをテストしたが、ChatGPTの出現やオープンソースの言語モデルの公開などで、状況が大きく変わってきており、今後はそうしたマルチリンガルな言語モデルを使用したテストを行っていく予定である。 また、すでに始めているが、言語モデルを強化学習するためのデータセットを意味論的なものと構文論的なもの両方を作成し、意味理解のテストと強化学習のために使用する。
|