医療AI規制の「分散型アプローチ」

医療AIの安全性・有効性・公平性を確保するためには、適切な規制と承認の枠組みが欠かせない。臨床AIの適用総数は急速に増加しており、「地域医療システムごとの異質性」と「不可避のデータドリフトを考慮した適応の必要性」によって問題は複雑化し、規制当局にとっての根本的な課題となっている。米ハーバード大学公衆衛生大学院の研究チームは、中央集権的な医療AI規制の現行モデルに、分散的な規制を融合させた「ハイブリッド規制モデル」を提案している。

PLOS Digital Healthからこのほど公開されたチームの論文によると、FDAによる現行の承認プロセスは、基本的に「医薬品や従来の医療機器の安全性と有効性を評価するために設計されたアプローチ」に基づいており、大規模な中央集権的なAI規制を継続することには複数の課題があることを指摘する。医療AIは新薬や従来の医療機器よりも開発が容易であり、規制当局が対応しきれないほど大量の申請が発生するという「量の課題」、AI技術は基礎となるデータの変化に応じて変化する必要があるという「変化の課題」、多くのAIアルゴリズムに因果関係を判断する能力がないという「因果の不透明性」、そして何より、単独の枠組みで規制されたAI技術ではローカルレベルの社会技術的要因が考慮されず、本来的に医療AIによって生み出された結果を受容するはずのローカルの状況には最適化されない点、などが挙げられている。研究チームは「中央集権的な規制だけでは、導入された医療AIシステムの安全性・有効性・公平性を十分に確保することはできない」と結論付けた上で、既存の中央集権的な規制アプローチを、ローカルに展開可能な分散型アプローチで補完することを提案している。

このハイブリッドなアプローチでは、ほとんどの医療AIアプリケーションで分散型規制がデフォルトとなり、中央集権規制は最もリスクの高いタスクにのみ留保されるとする。高リスクのタスクとは、臨床医のレビュー無しに推論が完全に自動化されるもの、患者の健康に悪影響を与える可能性が高いもの、特定のスクリーニングプログラムなど国家規模で適用されるように設計されたもの、などだ。医療におけるAIの長期的な成長は、この技術に対する臨床家と患者の信頼に大きく影響されるため、妥当で透明性の高い規制モデルの構築が強く求められており、近年医学研究コミュニティからも枠組みに対する批判と提案が相次いでいる。

関連記事:

  1. 英NHS – 医療者のAI利用をサポートする新報告書
  2. デジタルヘルスツールの新しい評価フレームワーク
  3. FDA – 医療機器ソフトウェアへの新しい指針案を公表
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事