「医療現場がサイバー攻撃に対して脆弱な可能性」については繰り返し話題となってきた(過去記事)。医療機関に対するサイバー攻撃の目的には、身代金(ランサムウェア)・保険金詐欺・臨床試験改ざんなどが想定される。米ピッツバーグ大学医療センター(UPMC)のチームは「乳がん検出のマンモグラフィ検査用AIに対するサイバー攻撃をシミュレートした研究」をNature Communications誌に発表した。
UPMCのリリースでは、同研究を紹介している。研究チームは、まずマンモグラフィ検査から乳がんを80%以上の精度で検出するAIモデルを開発し、そこに仮想のサイバー攻撃として、偽のがん領域を挿入、あるいは本物のがん領域を削除する「敵対的生成ネットワーク(GAN: Generative Adversarial Network)」プログラムを適用した。その結果AIモデルは、GANによって陰性に見せかけられた44枚の陽性画像のうち42枚を陰性と分類し、一方で陽性に見せかけられた319枚の陰性画像のうち209枚を陽性と分類した。すなわち69.1%の偽装画像にAIモデルが騙されたこととなる。さらに、この偽装画像を5名の放射線科医に本物か偽物か見分けるよう依頼したところ、画像の真偽の識別精度は29〜71%であった。
著者のShandong Wu博士は、「AIを騙す偽装画像には、読影医なら簡単に見分けられるものもある。しかし今回の研究では、GANによる偽装画像の多くがモデルだけではなく経験豊富な人間の読影医も欺いてしまった」と語る。研究のさらなる目的には、AIモデルをサイバー攻撃に対して強固にする方法を開発する狙いがある。チームは「adversarial training(敵対的トレーニング)」と呼ばれる手法によって、敵対的に生成された画像が操作されていることをモデルに教え込むことで、問題の解決を目指しているという。
関連記事: