Project/Area Number |
22KJ0126
|
Project/Area Number (Other) |
22J21160 (2022)
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Multi-year Fund (2023) Single-year Grants (2022) |
Section | 国内 |
Review Section |
Basic Section 61030:Intelligent informatics-related
|
Research Institution | Hokkaido University |
Principal Investigator |
竹下 昌志 北海道大学, 情報科学院, 特別研究員(DC1)
|
Project Period (FY) |
2023-03-08 – 2025-03-31
|
Project Status |
Granted (Fiscal Year 2023)
|
Budget Amount *help |
¥2,500,000 (Direct Cost: ¥2,500,000)
Fiscal Year 2024: ¥800,000 (Direct Cost: ¥800,000)
Fiscal Year 2023: ¥800,000 (Direct Cost: ¥800,000)
Fiscal Year 2022: ¥900,000 (Direct Cost: ¥900,000)
|
Keywords | 人工知能 / 常識道徳 / 徳倫理学 / AI倫理 / 動物倫理 / 種差別 / 功利主義 / データセット / 道徳的エンハンスメント / AIエンハンスメント |
Outline of Research at the Start |
本研究では二つのことを行う。第一に、倫理学の規範理論に基づいた人工知能モデルの開発のために、規範理論に基づいたデータセットの作成を行う。また比較のために常識道徳を反映したデータセットの作成も行う。第二に、作成したデータセットを用いて、人工知能モデルを学習し、各理論に基づいたモデルを作成する。また、この作成したモデルを組み合わせ、各規範理論に基づいて道徳判断が可能なモデルを作成する。
|
Outline of Annual Research Achievements |
当該年度は人工知能(AI)の技術的研究およびAI倫理に関する研究を行なった。研究実績の概要は大きく二つに分けられる。 第一に、AIと動物倫理学という学際的トピックの研究である。これは過去の自身の論文からさらに発展させた研究であり、この既刊の論文が評価され、プリンストン大学で行われたシンポジウムに招待され、発表した。これには、自然言語処理研究における種差別の存在を明らかにする研究と、大規模言語モデルなどのAIに含まれる種差別バイアスに関する研究を含む。自然言語処理研究における種差別としては、自然言語処理研究者の論文を調査し種差別的なテキストが含まれているかを分析し、一部の論文に含まれていること、加えてデータセットやモデルにも種差別バイアスが含まれていることを明らかにした。こうした研究は、本研究プロジェクトにおける常識道徳の位置づけを検討するものである。 第二に、AIへの道徳の実装、社会的バイアスの分析という技術的研究である。これにより、複数の倫理思想を統合するアルゴリズムの開発および実験に加え、AI研究にとって重要なデータセットを複数開発した。これは、ChatGPTなどの大規模言語モデルの登場により、当初の研究計画を調整し、進めたものである。現在、当初の計画通りに常識道徳および規範倫理学の分野で研究されている徳倫理学と呼ばれる思想をベースにしたデータセットを開発したものである。またすでに次年度に開発予定のデータセットの開発計画を進めており、当初に計画したデータセットは順調に開発できている。加えて、当初の計画では三年目に実施予定であった、複数の倫理思想を統合した集計アルゴリズムの実装および実験を、英語のAIおよびデータセットを用いて実施した。これにより、当初の計画を大幅に進めることができ、今後は日本語で開発したデータセットをもとに、さらに進める予定である。
|
Current Status of Research Progress |
Current Status of Research Progress
1: Research has progressed more than it was originally planned.
Reason
当初の計画から順調に発展した部分と、計画以上に発展した部分がある。 順調に発展した部分について、2023年度は予定通り常識道徳に関するデータセットを開発した。具体的には、前年度に作成した常識道徳データセットを改良したものと、徳倫理学とよばれる規範倫理学上の立場を前提にしたデータセットを開発した。 計画以上に発展した部分について、当初の予定では3年目に実施予定であった、複数の規範倫理理論を元にしたモデルの出力を集約するアルゴリズムの実装、およびそれを用いた実験を実施し、国際会議のワークショップにて発表した。これは、英語圏では規範倫理理論をベースにしたデータセットがすでに開発されていることを受けて、英語の人工知能モデルを用いた実験が可能だと考え、実施したためである。これにより、当初の予定では日本語のデータセットを開発した後に人工知能モデルをそのデータセット上で学習させ、その集約アルゴリズムを実装する予定であったが、まず先に英語のデータセットを用いて実施できた。
|
Strategy for Future Research Activity |
上述の通り当初の計画以上に発展した部分があるため、当初の計画に加えて研究を実施する。 まず、データセット開発については、当初の計画通り順調に進んでいるため、3年目となる2024年度でも、計画通りに常識道徳に関するデータセットを開発予定である。 次に集約アルゴリズムの実装について、すでに英語のデータセットを用いて実施したため、アルゴリズムの実装に関する研究としては実施済みである。そのため、3年目となる2024年度では、日本語のデータセットを用いて人工知能モデルを学習させ、次に同様に集約アルゴリズムを実装し、これを、英語のデータセットを用いて学習させた人工知能モデルおよびその集約アルゴリズムと比較する。これにより、日米の道徳心理学的比較が可能となる。 加えて、大規模言語モデルとして有名なChatGPTの公開など、人工知能技術の急速な発展を受け、本研究プロジェクトで提示する集約アルゴリズムの有効性を最新の人工知能モデルでも有効であるかどうかを検証する実験を実施する予定である。
|