医療AIの安全性・有効性・公平性を確保するためには、適切な規制と承認の枠組みが欠かせない。臨床AIの適用総数は急速に増加しており、「地域医療システムごとの異質性」と「不可避のデータドリフトを考慮した適応の必要性」によって問題は複雑化し、規制当局にとっての根本的な課題となっている。米ハーバード大学公衆衛生大学院の研究チームは、中央集権的な医療AI規制の現行モデルに、分散的な規制を融合させた「ハイブリッド規制モデル」を提案している。
PLOS Digital Healthからこのほど公開されたチームの論文によると、FDAによる現行の承認プロセスは、基本的に「医薬品や従来の医療機器の安全性と有効性を評価するために設計されたアプローチ」に基づいており、大規模な中央集権的なAI規制を継続することには複数の課題があることを指摘する。医療AIは新薬や従来の医療機器よりも開発が容易であり、規制当局が対応しきれないほど大量の申請が発生するという「量の課題」、AI技術は基礎となるデータの変化に応じて変化する必要があるという「変化の課題」、多くのAIアルゴリズムに因果関係を判断する能力がないという「因果の不透明性」、そして何より、単独の枠組みで規制されたAI技術ではローカルレベルの社会技術的要因が考慮されず、本来的に医療AIによって生み出された結果を受容するはずのローカルの状況には最適化されない点、などが挙げられている。研究チームは「中央集権的な規制だけでは、導入された医療AIシステムの安全性・有効性・公平性を十分に確保することはできない」と結論付けた上で、既存の中央集権的な規制アプローチを、ローカルに展開可能な分散型アプローチで補完することを提案している。
このハイブリッドなアプローチでは、ほとんどの医療AIアプリケーションで分散型規制がデフォルトとなり、中央集権規制は最もリスクの高いタスクにのみ留保されるとする。高リスクのタスクとは、臨床医のレビュー無しに推論が完全に自動化されるもの、患者の健康に悪影響を与える可能性が高いもの、特定のスクリーニングプログラムなど国家規模で適用されるように設計されたもの、などだ。医療におけるAIの長期的な成長は、この技術に対する臨床家と患者の信頼に大きく影響されるため、妥当で透明性の高い規制モデルの構築が強く求められており、近年医学研究コミュニティからも枠組みに対する批判と提案が相次いでいる。
関連記事: