米ハーバード大学とスタンフォード大学の研究チームは、胸部X線画像から病変を検出するAIシステム開発にあたって、手動の疾患ラベルではなく、「構造化されていない放射線診断報告書の記述」から学習する新しいAIモデルを開発した。
既存のAI開発のほとんどは、ラベル付けされたデータをモデルに与えて学習させるため、事前に膨大な量のデータに対する「専門家によるアノテーション作業」が必要であった。Nature Biomedical Engineeringからこのほど公開された研究論文によると、CheXzeroと呼ばれる新しいモデルは、学習の前後にラベル付けされたデータを必要とせず、自然記述された放射線診断報告書の記載に基づいたより自律的な学習を行うことができる。また、CheXzeroによって構築された胸部X線画像の病変検出AIは、放射線科医と同等の性能を示したことを明らかにしている。
ハーバード大学のPranav Rajpurkar氏は「我々は、テキストから直接学習することで柔軟なタスクを実行できる次世代の医療AIモデルの黎明期にいる」とした上で、「これまでほとんどのAIモデルは、高いパフォーマンスを得るために、10万枚にも及ぶ膨大なデータの手動アノテーションに依存してきた。我々の手法は、そのような疾患特有のアノテーションを必要としない。構造化されていないテキストの概念が、画像の視覚的パターンにどのように対応するかを最終的に学習することができるものだ」と、成果の革新性を強調する。
関連記事: