ここ数年で、医療分野におけるAI利用の研究開発や製品化が相次いでいる。AIツールが臨床環境における一般的ツールとなることは疑いの余地が無いが、欧米における規制上の課題によって、イノベーターの足踏みがみられる現状もある。
欧州において、医療製品の全ては医療機器規制(MDR)とそこに盛り込まれた規範、GDPRの要件、ESGへの配慮など、多数の規制対応を余儀なくされる。また、近い将来、人工知能の規制枠組みに関する提案(EU AI法)に規定されている「高リスクAI技術」に関する全ての具体的な要件を遵守する必要が生まれる。新たな法的ルールが導入されるたび、法律用語の背後にある論理、成文化された規範の根拠、比例性、補完性、既存の政策規定との整合性をさらに詳しく説明することを意図したガイドラインやベストプラクティスが開発される。多くの場合は、これらのガイドラインには倫理的配慮も含まれている。
求めに応じることが、「水準の確保」に繋がるため、避けられないものである一方、真に有用な技術導入の遅れや、時に開発自体が見送られることも起こり得る。実際、規制側も混迷を極めており、現在、欧州委員会のデジタル戦略によって導入されている分野横断的なAI法制は、MDR、IVDR、機械指令などの既存の分野別法制と統合されることを目指しているが、AI主導の医療機器に対する規制遵守要件が重複する場合、「実際にどのように管理されるか」は不透明である。
一方の米国では、AI規制はほとんどの場合、分野横断的ではなく分野別である。主な連邦医療プライバシー法である1996年医療保険の相互運用性と説明責任に関する法律(HIPAA)は、医療保険者、請求処理クリアリングハウス、医療提供者とその業務提携者のような「対象事業体」にのみ適用され、保護される医療情報のサブセットにのみ適用される。米国のアプローチであるセクター主義にはプラスとマイナスがある。プライバシー分野では、欧州の分野横断的アプローチは、伝統的なヘルスケアの境界を越えて規制しているため、ウェアラブルやインターネット検索などから得られる健康データなど、「伝統的な医療に隣接する空間での運用」に適していることが、明確な利点となる。しかし、異なる分野の経済的現実があること、その分野には既存の法体系があり、その法体系がすでに仕事の一部を担っている可能性があるという事実が、必ずしも考慮されているとは限らない。
規制を巡る新たな課題は、変化のテンポにどれだけ適合するかということだ。生成AIの台頭は、その典型的な例である。EUのAI法は、Open AIのChatGPTのような生成AIシステムの躍進が明白になった時、同法の下でこれらの基盤モデルをどのように規制するかについての意見の相違や、異なる基盤モデルがどの程度同法に準拠しているかについての疑問が生じた。医療におけるAIは急速に進展している。AIが信頼に足る責任ある方法で開発され、使用されることを保証するためには、AI法のような一般的で包括的な規制は、すぐに時代遅れとなり得る。世界では、事前に訓練された応用的・生成的なAIモデルから、強化学習や転移学習をベースとした対話的でマルチモーダルなAIモデルへと、指数関数的なスピードで移行しつつある。これらのAIモデルは、ラベル付けされたデータ・コーパスも、人間のフィードバックも、訓練・テスト・検証データセットも必要としない。規制当局は、技術革新のテンポが高速化していることを認識し、この破壊的な技術を真に理解し、遅れをとらないよう努める必要が生じている。
関連記事: