臨床現場でAI搭載の「意思決定支援ツール」の利用が進むが、どのようなアルゴリズムも常に正しいとは限らない。医師はどのようなプロセスを経てAIの推奨事項を信頼していくか。米コーネル大学の研究チームは「AI意思決定支援システムに対する臨床医の信頼を構築する手法」を提案している。
本年4月開催のCHI 2023で発表予定の同研究では、各専門領域の医師9名と臨床医学図書館員3名にインタビューを行い、「異なる臨床方針が選択された際に、互いの提案を検証するプロセス」を抽出した。この検証プロセスでは、1.科学文献を参照し、2.関連する研究結果を追跡し、3.研究の質および目前のケースにどれだけ近似しているかを考慮していた。研究グループは、このプロセスを模倣した臨床判断ツールを構築し、AIの推奨事項と併せて生物医学的なエビデンスを提示することにした。そのエビデンス提示には大規模言語モデルのGPT-3が用いられ、関連研究の探索と要約が行われる。神経科・精神科・緩和ケア科の3科の医師がツールを試用したところ、「臨床的エビデンスが直感的でわかりやすい」と評価され、「AIの内部構造を説明する」よりも好まれる傾向にあった。
著者のQian Yang氏は「AIの仕組みを学ぶのは、医師の最優先の仕事ではない。医師が信頼を寄せる臨床試験結果や学術論文に基づいてAIの提案を検証するシステムを構築できれば、ケース毎にAIが正しいか間違っているか吟味することができる。本研究は汎用性の高い手法であり、開発中の様々なAIシステムに組み込んで臨床に役立てたい」と語った。
関連記事: