単一の深層学習(DL)モデルでは、医療画像から複雑なパターンを捉えることが困難であることが知られている。この課題を克服するために、中国の研究チームは3つの畳み込みニューラルネットワーク(CNN)を組み合わせ、超音波画像を用いて乳がんを分類する融合モデルを開発した。さらに、ブラックボックス問題を解決するために、Grad-CAM++を用いてモデルの解釈を行い、説明可能性の向上を図った。
Frontiersに掲載された論文によると、3つのCNNモデルであるDENSENET121、Xception、VGG16がImageNetを用いて事前学習された。この融合モデルの特徴として、各モデルの最後の畳み込み直前特徴量をグローバル平均プーリングで圧縮後に結合し、全結合層(256→128、ReLU、Dropout)を通してシグモイドで二値分類している。この3つのモデルを融合したモデルは、正解率が97.14%と、各単独モデルの正答率(82-84%)と比較しても高い値を達成した。また、説明可能性の向上のためにGrad-CAM++を用いたヒートマップが生成され、腫瘍の良性・悪性の区別において最も重要な領域が明らかにされた。
本研究により、超音波画像から乳がんを検出する新たな融合DLモデルが開発された。研究者らは、「臨床医がAIモデルを信頼するためには、モデルの透明性と説明可能性の確保が重要であるが、本研究では、Grad-CAM++を用いて予測の根拠となる重要な画像領域を提示することに成功した」と述べている。
参照論文:
Explainable AI-enabled hybrid deep learning architecture for breast cancer detection
関連記事:




















