臨床医は日々症例を検討し、鑑別診断や治療方針を決定している。従来のAI診断支援は「正しい診断」を示すことに重点を置いてきたが、診断に至った理由や、他の診断の可能性を除外した理由といった思考過程の説明には十分に焦点を当てていなかった。そのため、研修医や学生が専門医の診断過程を学ぶことは困難であった。この課題を背景に、米国ハーバード大学の研究チームは、実際の症例に基づく詳細な診断推論を生成できるAIシステム「Dr.CaBot」を開発した。
ハーバード大学のニュースリリースによると、Dr.CaBotは大規模言語モデルを基盤に、過去の症例や医学文献を参照しながら検査所見や画像所見を総合的に分析し、診断候補の選択理由や除外理由を明示できる。さらに、生成された推論はスライドや文章レポートとして出力可能であり、医師によるレビューを通じて学習者は実際の臨床判断の背後にある論理をより深く理解できる。こうして研修医や学生は単に結論を学ぶのではなく、専門医の思考プロセスを追体験する形で学習でき、臨床推論力の向上に寄与する。
研究チームは「今後、多施設での症例や異なる専門領域におけるDr.CaBotの有用性検証を進め、推論精度および再現性の評価を行っていく」と述べている。詳細およびアクセス方法は、Dr.CaBotのページで紹介されているため、興味のある読者はぜひ参照してほしい。
参照論文:
An AI System With Detailed Diagnostic Reasoning Makes Its Case
関連記事:




















