多くの大学が、AIを搭載した早期警告システム(EWS)を使って、学生が最初の学期を始めると同時に学習・生活面に渡って全般的なサポートを提供している。しかし、EWS技術の基礎となるアルゴリズムが、学生の大学生活の早い段階で公正で偏りのない判断を下せるかどうか懸念もある。そこで、本研究では日本の中堅私立大学のデータを用いて、二つの研究をおこなった。
一つ目の研究では、大学1学期のGPAを予測する機械学習アルゴリズムを開発し、アルゴリズムの公正さを検証した。そして、リスクの高い学生グループと低い学生グループに対するモデルのパフォーマンスを比較したところ、そのグループが実際に共通の属性を持っているかどうかにかかわらず、前者を高リスク、後者を低リスクと分類する傾向があることが示された。また、SHAP(SHapley Additive exPlanations)を用いて、モデルが大学入学前の学業や人口統計学的特徴に依存するほど、この差別的傾向が強まることを視覚的に示した。本研究は、EWSの早期導入が欠落変数によるバイアス問題を引き起こしやすいことを主張し、公正性を高めるために、大学1学期中の学生の早期学習状況を測定する近い将来の変数を特定する研究を呼びかけている。
もう一つの研究においては、実際にEWSが実装され,リスクがあると判断された学生に対して支援が行われた場合,EWSで用いられる予測モデルの公平性が,教育の公平性,つまり教育格差にどのような影響を与えるのかについてのシミュレーション研究をおこなった。本研究は,EWSで用いられる予測モデルの公平性が,教育の「公平」の実現につながるのかを定量的に検証することにより,EWSで用いられる予測予測分析の文献で一般的に用いられている公平性の尺度である「反分類」や「分類パリティ」の達成は、公平な教育成果を得るための必須条件ではないことを示した。
|