深層学習モデルが何を根拠に診断を下しているかは、臨床医がAIを信頼するために重要なものとなる。いわゆるブラックボックス化を防ぐ「説明可能なAI(XAI)」については以前にも紹介している(過去記事)。ソウル大学病院のグループは、失明の原因となる代表疾患である緑内障について眼底画像から診断するXAIを開発し、学術誌 Ophthalmologyに発表した。
Korea Biomedical Reviewでは同研究を紹介している。網膜眼底画像6,430枚で訓練された深層学習モデルは、緑内障を特定するための病変領域を指摘する一方で、adversarial examples(AEs)すなわちAIが病的特徴を捉えられない正常所見の画像例を機械的に生成させる。そのことによって臨床医に異常所見とそれが除去された画像の例を対比して提示し、AIに緑内障の所見を説明させることができた。
同研究は、病変位置を示すだけであったヒートマップのような従来の方式よりも、臨床医のAIに対する信頼性が高まるひとつの手法として期待される。XAIが実臨床に応用されていく好例として注目したい。