AIを活用した医療機器を作りたい、そう思い立ったらどこを目指せば良いか。AIが医療者の意思決定をサポートして最終責任をヒトが負うとき、そのAIは医療機器なのか。私たちが参考にする医学書と何の違いがあるか。幾度となく繰り返された論点が現状の総意に至る流れは割愛しよう。結論として、そのAIを医療機器として社会的に認めてほしいならば国あるいは当局の許認可を得る、というのが素直な考え方である。しかしハードルは高く険しい。
学術誌Natureに今週火曜に発表された論文では「AI/機械学習が基礎となるソフトウェアを医療機器として規制する際、製品単独ではなくシステム全体への観点が必要」と問題提起された。米ハーバード大学と世界的ビジネススクールINSEADのメンバーから発表された同論文は、開発者と規制当局、双方の思考をパラダイムシフトさせる。エビデンスはどうするか、新しいデータで改良されてゆく「Adaptive(適応する)」アルゴリズムは再認可を受けるべきか、安全性と有効性はどう評価するか。いずれの課題に対しても同論文では、製品そのものではなく実環境で発揮されるシステムとしてのあり方を米国FDAらは評価できるよう変化すべき時が来たと発案する。
その変化は理想的だが容易ではないと著者らは十分理解した上で、具体的な失敗例とともに解決への糸口を概説する。2000年代初頭「乳がんマンモグラフィ検査におけるコンピュータ支援」が検査法そのものに注目するあまり、施設での検査全体の流れにシステム的視野をもてず、医療のパフォーマンスが向上できず一部悪化した、という2015年に学術誌JAMAへ掲載され話題となった研究を好例に挙げて論理展開した。
今後の医療AIをめぐる規制が、システム更新の度に果てしない検証試験を開発者へ求め続けるならば、彼らの革新への意欲は減退し、追加データで進化することのない「Locked(閉ざされた)」アルゴリズムに留まらせてしまう。それは医療AIがもつ真の社会的価値を発揮させないだろう。規制当局にとって困難な課題だが、システム全体を俯瞰した適切なバランスの規制へシフトすることを著者らは未来志向で期待している。これは米国FDAのみならず、日本のPMDA(医薬品医療機器総合機構)にも投げられる普遍的な問いかけである。