現在開発されている放射線レポート生成AIモデルは、診断所見の視覚的な根拠(画像のどこを見てそう判断したか)を明示できないことが多く、AI特有の「ハルシネーション(画像にない所見のでっち上げ)」を防ぐうえで課題があった。こうした課題を背景に、スペインの研究チームは、胸部X線画像における所見の位置情報と文章を組み合わせて学習できるAI、グラウンデッド放射線レポート生成モデル(Grounded Radiology Report Generation; GRRG)の開発に必要なデータセット「PadChest-GR」を作成し、NEJM AIに公表した。
本論文によると、既存のPadChestデータセットから4,555例の胸部X線画像を選択した後、GPT-4を用いて所見を抽出し、所見ラベル・位置ラベルと紐づけた。さらに、14名の放射線専門医が陽性所見にバウンディングボックスを付与し、各所見の位置・種類・進行度を体系化した。最終的に、陽性所見7,037文と陰性所見3,422文を含むデータセットが完成し、従来のラベルのみのデータに比べ、画像と文章、位置情報を統合した精緻な対応関係が実現した。
研究者らは「PadChest‑GRは、胸部X線画像、文章所見、位置情報を統合しており、AIによるグラウンデッド・レポート生成の開発と評価において、信頼性と説明可能性が担保される」と述べている。将来的には、複数の医療機関からのデータ収集やDICOM形式画像の利用、側面像や他モダリティの追加による包括的評価期待される。
参照文献:
PadChest-GR: A Bilingual Chest X-Ray Dataset for Grounded Radiology Report Generation
関連記事:




















