研究課題/領域番号 |
21K17764
|
研究種目 |
若手研究
|
配分区分 | 基金 |
審査区分 |
小区分61010:知覚情報処理関連
|
研究機関 | 大阪大学 |
研究代表者 |
李 良知 大阪大学, データビリティフロンティア機構, 特任助教(常勤) (10875545)
|
研究期間 (年度) |
2021-04-01 – 2023-03-31
|
キーワード | Explainable AI / Computer Vision / Medical Images / Deep Learning / Image Classification / Visual Explanation / Computer-aided Diagnosis / Trustable AI |
研究成果の概要 |
医療分野において信頼性の高いAIを完全に活用するため、このプロジェクトは説明可能なAIモデルを設計することを目的としています。このモデルは、診断結果に加えて、その判断をサポートする正確で視覚的な説明を提供することができます。このプロジェクトでは、以下のサブトピックを中心に研究を行いました:1.自己注意ベースの分類器。この分類器は、本質的に説明可能な推論を行う能力を持っています。2.説明のサイズを制御するための損失関数。3.同時にpostiveとnegativeの説明を出力するためのコラボレーションサブネットワーク。
結果は、主にICCVやCVPRなどのトップカンファレンスで発表されました。
|
自由記述の分野 |
Explainable AI
|
研究成果の学術的意義や社会的意義 |
機械の判断に正確な理由を示すことができる技術の確立は、医療分野における説明可能なコンピュータ支援診断(CAD)や、病気の症状を認識する方法や手術を専門家のように実行する方法などのスキルを学生に教えるマシンティーチングシステム、また病気の形態/生理学的状態に関する患者の質問に答えるための医療ビジュアルクエスチョンアンサリング(VQA)など、様々な医療AIアプリケーションの向上につながります。さらに、この研究には一般的なAI研究の改善の可能性があります。
|