一次医療では、医師不足や経験差により診療の質にばらつきが生じやすく、診断や治療方針の適正化が課題である。特にサブサハラ・アフリカでは、医師不足や人材流出がこの問題を一層深刻化させている。大規模言語モデル(Large Language Model; LLM)を活用した臨床意思決定支援システム(Clinical Decision Support System; CDSS)は、こうした課題を補完し診療改善に寄与する可能性が期待されているが、低リソース環境での実運用評価はほとんど行われていなかった。そこで、ケニアの研究チームは一次医療クリニックにおけるLLMベースCDSSの安全性と実用性を検証し、その成果をNature Healthに発表した。
本研究では、国内16診療所から収集した1,469件の電子カルテデータを用いて、LLMが生成した助言を専門医パネルが後ろ向きに評価した。その結果、助言の大半は地域の臨床ガイドラインに沿っており、幻覚(hallucination:根拠のない情報や誤情報)は3.4%にとどまった。一方で、7.8%の助言には潜在的な有害性が認められ、ガイドライン外の処方や鑑別診断の欠落が含まれていた。助言を確認せずに使用すればリスクが生じ得るが、多くの場合、医師は助言を文書化や意思決定に反映させず、臨床への影響は限定的であった。
AIモデルは高所得国のデータで訓練される場合、現地の疾病分布や医療資源、文化に十分適応できない可能性があるが、本研究はケニアの一次医療現場において実運用データを用いてLLMを評価した点に意義がある。研究者は、「助言を特定症例に限定する、監督医師のみ閲覧可能とする、教育目的で臨床から切り離して使用するなど導入モデルを最適化し、利益と安全性のバランスを検証する必要がある」との述べている。
参照論文:
関連記事:





















