AI/機械学習システムが医療の意思決定で重要な役割を果たすようになりつつあるなか、「説明可能なAI(XAI)」がより一層求められている(過去記事)。米テキサス大学アーリントン校(UTA)のコンピュータ科学者らは、3年間で38.5万ドルの助成金をアメリカ国立標準技術研究所(NIST)から得て、「機械学習システムがどのように意思決定を行い、誤った意思決定を行ったときに何が起こるか」を研究している。
UTAのリリースでは、研究を率いているコンピュータサイエンス・エンジニアリング学部教授Jeff Lei氏にインタビューを行っている。機械学習が大量のデータポイントを用いて判断を下す際に、判断となるポイントに近いデータは、遠いデータよりも大きな影響力を持つ。チームの研究は、学習データセット全体を見るのではなく、決定点に近いところの様々なデータポイントを見る「最近傍探索」を行うことで計算量を大幅に減らしている。データの偏りや、データ収集に人為的ミスがあったとき、判断に最も影響を与えたデータポイントを探索することでシステムの誤った判断につながった原因を特定できるという。
Lei氏は「AIは意思決定に役立つが、プロセスが複雑で、完全な透明にはなっていない。意思決定が重大な転帰をもたらす領域では深刻な課題である。社会の信頼を維持し、システムが意図通りに機能していることを保障するため、私たちは意思決定理由を説明し、誤った意思決定には根本原因を突き止め、修正案を提示していかなければならない」と語る。Lei教授らによる説明可能なAIの研究は、社会から求められているタイムリーなものとして、今後の医療AIの展開にも大きな影響を与える可能性を秘める。
関連記事: