ChatGPTが、米国の医師免許試験(USMLE)で非凡な回答能力を発揮して以来、研究者らはより専門分野に特化した回答能力を評価する傾向が強まっている。オランダ・アムステルダム大学病院の研究チームは、「循環器科の質問に対するChatGPTの回答能力」を検証した。
medRxivで公開中の同研究では、ChatGPTの回答能力を2種の実験で検証した。まず医療従事者向けの循環器系生涯教育コースの小問50題をChatGPTに回答させたところ、正解率は74%で、分野ごとの正答率は心房細動で70%、心不全で80%、心血管リスク管理で60%と、領域によって精度に差がみられた。次に20の臨床シナリオに対する回答を、専門家の臨床意見と比較した。20例のうち、患者が主治医に質問する小シナリオ10例では、9例で専門家のアドバイスと一致していた。一方、プライマリケア医が専門医に相談するケースを想定したより複雑なシナリオ10例では、5例までは専門医の意見と一致したが、2例は部分一致、1例は結論に至らず、2例は不正解であった。
研究チームでは、「循環器領域においても、簡潔で複雑性の低い医学的質問に対してChatGPTが意思決定支援ツールとなる可能性が示されたものの、より高度な質問には困難が伴う。医療という重大で繊細な状況において使用する際には、説明責任の強化に努めることが重要である」と結論付けている。
参照論文:
関連記事: