医療とAIのニュース医療におけるAI活用事例医療システム・医療問題へのAI活用事例乳がん検出AIと読影医の双方が騙されるサイバー攻撃研究

乳がん検出AIと読影医の双方が騙されるサイバー攻撃研究

「医療現場がサイバー攻撃に対して脆弱な可能性」については繰り返し話題となってきた(過去記事)。医療機関に対するサイバー攻撃の目的には、身代金(ランサムウェア)・保険金詐欺・臨床試験改ざんなどが想定される。米ピッツバーグ大学医療センター(UPMC)のチームは「乳がん検出のマンモグラフィ検査用AIに対するサイバー攻撃をシミュレートした研究」をNature Communications誌に発表した。

UPMCのリリースでは、同研究を紹介している。研究チームは、まずマンモグラフィ検査から乳がんを80%以上の精度で検出するAIモデルを開発し、そこに仮想のサイバー攻撃として、偽のがん領域を挿入、あるいは本物のがん領域を削除する「敵対的生成ネットワーク(GAN: Generative Adversarial Network)」プログラムを適用した。その結果AIモデルは、GANによって陰性に見せかけられた44枚の陽性画像のうち42枚を陰性と分類し、一方で陽性に見せかけられた319枚の陰性画像のうち209枚を陽性と分類した。すなわち69.1%の偽装画像にAIモデルが騙されたこととなる。さらに、この偽装画像を5名の放射線科医に本物か偽物か見分けるよう依頼したところ、画像の真偽の識別精度は29〜71%であった。

著者のShandong Wu博士は、「AIを騙す偽装画像には、読影医なら簡単に見分けられるものもある。しかし今回の研究では、GANによる偽装画像の多くがモデルだけではなく経験豊富な人間の読影医も欺いてしまった」と語る。研究のさらなる目的には、AIモデルをサイバー攻撃に対して強固にする方法を開発する狙いがある。チームは「adversarial training(敵対的トレーニング)」と呼ばれる手法によって、敵対的に生成された画像が操作されていることをモデルに教え込むことで、問題の解決を目指しているという。

関連記事:

  1. 医療現場はサイバーアタックの脅威が増していく
  2. サイバー攻撃によって50万人の患者情報が流出
  3. 医師は「サイバー攻撃のリスク」を患者に伝える必要はあるのか?
  4. 医療AI研究を守るのもまたAI – メリーランド大学のサイバーセキュリティ技術提携

TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。
The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。

1. 岡本 将輝
信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員准教授など。専門はメディカルデータサイエンス。

2. 杉野 智啓
防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事