大規模言語モデルがEBMを推進する

エビデンスに基づく医療(EBM)においては、現場における患者治療だけではなく、各種ガイドラインや政策的意思決定を適切に支援するため、エビデンスレベルに応じた研究評価が行われる。ここではランダム化比較試験や系統的レビュー、メタアナリシスによる強固なエビデンスが優先されることになる。一方で、科学文献の爆発的な増加に加え、ソーシャルメディア、症例報告、大規模観察研究などによる新しいエビデンスソースの出現、さらにこの膨大なエビデンスのフリーテキスト性により、利用可能な最良のエビデンスを評価し選択することが非常に困難となっている。

米コロンビア大学やコーネル大学の研究チームは、ChatGPTに代表される大規模言語モデル(LLM)が、事実誤認や不正確な情報提供といったピットフォールを回避する限り、EBMへの利用機会があることを指摘している。チームがNature Medicineに寄せたレター論文の中では特に、的確性基準の構成における利用可能性に言及する。EBMが他の医学・臨床研究論文と大きく異なるのは、「研究を含めるか否かの正確な基準」が必要なことにある。PICO(患者、介入、比較、結果を指す)フレームワークは、この適格性基準を構成しており、臨床エビデンスクエリを形成するためのプロセスとして広く採用されている。つまり、臨床的エビデンスの検索には、臨床研究課題に関連するPICO基準を満たすRCTを見つけ、これらをシステマティックレビューやメタアナリシスに集約する作業がある。

チームは、LLMがプロンプトを介してタスクを解決できる機能から、アノテーションコストを削減し、PICO抽出を高速化できることを強調する。「従来の言語モデルや、エビデンスレビューアが手動で抽出したPICO評価と比較し、出力の正しさと完全性をチェックする必要がある。また、LLMの使用については異なる生物医学ドメインで検証し、異なるトピックに使用することの適合性を評価する必要がある」として、一方で安易な利用拡大は行うべきではない点も強調している。

参照記事:

AI-generated text may have a role in evidence-based medicine

関連記事:

  1. ChatGPTの医学的エビデンス要約能力
  2. 大規模言語モデルの利用に対するWHOの懸念
  3. 臨床医の信頼を得やすいAIツールとは?
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事