医療AIのいわゆる「ブラックボックス」問題のため、単に動作するだけではなく、自らの思考過程を解釈可能な形で示し、何を根拠に結論を出しているかを明らかにするアルゴリズムが求められている。米デューク大学の研究チームは、AIに独自手順を自由に学習させるのではなく、「実際の放射線科医が訓練を受けるのと同様に、病変の位置や評価を行えるように学習させること」で一定の成果を得た。
研究成果はNature Machine Intelligenceに発表されている。本研究では乳がんのマンモグラフィ検査画像について、デューク大学の患者484名・画像1,136枚から本AIシステム開発を行った。その手順として、まずAIに「問題となる疑わしい病変を見つけ出し、健常組織や無関係なデータを無視するよう」に教えた。次に、腫瘍を疑う部分と健常組織とが交わる「病変のエッジ部位」に焦点を当てさせるため、放射線科医によるラベル付けを行い、そのエッジを既知のがんや良性結果のエッジと比較するように学習させた。乳がん検索において、腫瘤縁といわれる放射状瘢痕や曖昧な境界線は、腫瘍の存在を予測するため、読影医が最初の手順として検索する部位となる。トレーニング終了後、AIは既存のブラックボックス型AIモデルと同等の結果を得ることができたとする。
デューク大学のインタビューに対し、同大学放射線科教授のJoseph Lo氏は「コンピュータが医療上の重要な意思決定を支援するのであれば、AIは理にかなったものに基づいて結論を出している必要がある」と研究の意義を説明する。また、研究チームのひとりFides Schwartz氏は「初めて医療画像にAIを適用し始めたとき、人の目には見えないものをコンピュータが解明できるのではないかと多くの期待が寄せられた。しかしそのようなケースはまれで、大多数のシナリオではコンピュータがどのような情報に基づいて判断したのか、我々は理解しておいたほうが良いはずだ」と語っている。
関連記事: