卵巣腫瘍は婦人科悪性腫瘍の中でも致死率が高いが、超音波画像のみで良性・悪性を正確に識別することは困難である。診断のばらつきにより過剰な手術が行われる場合がある一方で、悪性腫瘍の見逃しも生じており、臨床上の課題となっている。こうした状況を背景に、スペインの研究チームは卵巣腫瘍の分類を目的として、畳み込みニューラルネットワーク(CNN)とTransformerを早期融合させたハイブリッドAIモデルを開発した。
Frontiersに発表された論文によると、モデルの学習には、1,469枚の2次元Bモード超音波画像で構成されるデータセット「OTU-2D(Ovarian Tumor Ultrasound 2D)」を使用している。CNNで局所的な特徴を抽出し、Transformerで画像全体の文脈情報を学習することで、腫瘍の質感や構造をより精緻に捉えることが可能となった。5分割クロスバリデーションの結果、ハイブリッドモデル単体でAUC 0.9904、正答率92.13%、感度92.38%、特異度98.90%を達成し、ソフトアンサンブルではAUC 0.991、正答率93.3%、感度93.6%、特異度99.0%と高精度を示した。さらに、Grad-CAMによるヒートマップにより腫瘍辺縁など臨床的関心領域を可視化し、エントロピーに基づく不確実性により、自動診断と専門医介入の切り分けが可能となる。
研究チームは今後、このハイブリッドAIモデルを他の婦人科疾患や画像診断全般に応用し、臨床現場での意思決定支援に活用する方針だ。「非侵襲的なリスク評価や不要な手術の削減にとどまらず、幅広い画像診断分野への展開も視野に入れ、さらなる精度検証と実装に取り組みたい」と意欲を示している。
関連記事:
Early-fusion hybrid CNN-transformer models for multiclass ovarian tumor ultrasound classification
関連記事:




















