2023 Fiscal Year Annual Research Report
Development of computational methods for increasing reliability and safety of deep neural networks for medical imaging
Project/Area Number |
21H03545
|
Allocation Type | Single-year Grants |
Research Institution | Kyushu Institute of Technology |
Principal Investigator |
竹本 和広 九州工業大学, 大学院情報工学研究院, 教授 (40512356)
|
Project Period (FY) |
2021-04-01 – 2026-03-31
|
Keywords | 深層ニューラルネットワーク / 機械学習セキュリティ / ネットワーク科学 / 大規模言語モデル |
Outline of Annual Research Achievements |
本研究課題は、複雑ネットワーク理論を応用し、医療AIの信頼性と安全性向上のための計算手法を開発することで、安全で信頼できる医療AIの開発に貢献することを目的としている。また、大規模言語モデル(LLM)の近年の台頭から、LLMの医療応用におけるバイアスと倫理的判断の理解を深めるため、LLMの政治的バイアスと道徳的判断に関する研究も行った。 昨年度、社会ネットワークにおける意見ダイナミクスが敵対的攻撃に対して脆弱であることを示した。今年度は、ネットワーク構造が意見ダイナミクスに影響を与えることを考慮し、敵対的攻撃を緩和できるネットワーク構造について検討した(Chiyomaru and Takemoto 2023)。ノード次数の不均一性が敵対的攻撃を大幅に緩和することを明らかにしたが、大規模で密なネットワークでは限定的になることも見出した。 LLMの医療応用における公平性と信頼性を確保するため、ChatGPTの政治的バイアスを再評価した(Fujimoto and Takemoto 2023)。ChatGPTは以前に想定されていたよりも政治的バイアスが少ないことがわかったが、使用言語やジェンダー・人種の設定がバイアスを引き起こす可能性があることが明らかになった。 LLMが医療分野に深く統合されるにつれ、LLMがどのように道徳的判断を下すかを理解することが重要になっている。モラルマシンフレームワークを用いて、LLMの倫理的意思決定の傾向を調査し、人間の選好と比較した(Takemoto 2024)。LLMと人間の選好は概ね一致していたが、一部のLLMは明確な逸脱を示し、より妥協のない決定を下す可能性が示唆された。これらの知見は、LLMの医療応用における倫理的課題を理解する上で重要である。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
複雑ネットワークの理論を応用した医療AIの信頼性評価と安全性向上のための計算手法の開発を着実に進めるとともに、近年の大規模言語モデル(LLM)の発展も踏まえ、LLMの医療応用に関連する政治的バイアスと道徳的判断の研究にも取り組み、LLMの政治的バイアスと道徳的判断の評価方法を確立した。深層ニューラルネットワークの医用画像診断のみならず、LLMを医療分野で適切かつ安全に活用するための基盤を整えつつある。
|
Strategy for Future Research Activity |
次年度以降も、基本的には当初の研究実施計画通りに進める。医療AIの信頼性評価と安全性向上のための計算手法の開発と応用を引き続き行うとともに、LLMのバイアスと道徳的判断の評価方法の改善と、それらが医療分野に与える影響の調査を進める。さらに、敵対的攻撃の脆弱性に対する防御戦略の検討を深め、医療AIのセキュリティの向上を目指す。
|