ハーバード大学法科大学院を中心とした研究チームは、医療におけるAI利用への安全性と倫理性保持のため、現在の法整備を大幅に更新する必要性を訴えた。報告は学術誌Scienceにて先週公開されている。
チームの研究報告では、FDAをはじめとした既存の審査機関から当初の承認を受けた後、AIアルゴリズムは明確な規制を受けることがないことの危険性を指摘する。つまり、構築されたアルゴリズムの実運用に際し、当初からは予見できないリスクを内包していることから、定期的に詳細な評価を加えることが欠かせないという。
アルゴリズムの精度は学習データの性質に大きく依存し、時として明確な偏りを示す(過去記事)。著者らは「規制当局が事前にあらゆるリスクを予測することは現実的でない。初期評価後のアルゴリズム変更を注視するのではなく、継続的なモニタリングとリスク評価に焦点を当てた法整備を行うべきだ」と主張する。