医療とAIのニュース医療におけるAI活用事例医療AIがもたらす影響・問題点AI医療機器をシステム全体の文脈で評価せよ - Nature論文の問題提起

AI医療機器をシステム全体の文脈で評価せよ – Nature論文の問題提起

AIを活用した医療機器を作りたい、そう思い立ったらどこを目指せば良いか。AIが医療者の意思決定をサポートして最終責任をヒトが負うとき、そのAIは医療機器なのか。私たちが参考にする医学書と何の違いがあるか。幾度となく繰り返された論点が現状の総意に至る流れは割愛しよう。結論として、そのAIを医療機器として社会的に認めてほしいならば国あるいは当局の許認可を得る、というのが素直な考え方である。しかしハードルは高く険しい。

学術誌Natureに今週火曜に発表された論文では「AI/機械学習が基礎となるソフトウェアを医療機器として規制する際、製品単独ではなくシステム全体への観点が必要」と問題提起された。米ハーバード大学と世界的ビジネススクールINSEADのメンバーから発表された同論文は、開発者と規制当局、双方の思考をパラダイムシフトさせる。エビデンスはどうするか、新しいデータで改良されてゆく「Adaptive(適応する)」アルゴリズムは再認可を受けるべきか、安全性と有効性はどう評価するか。いずれの課題に対しても同論文では、製品そのものではなく実環境で発揮されるシステムとしてのあり方を米国FDAらは評価できるよう変化すべき時が来たと発案する。

その変化は理想的だが容易ではないと著者らは十分理解した上で、具体的な失敗例とともに解決への糸口を概説する。2000年代初頭「乳がんマンモグラフィ検査におけるコンピュータ支援」が検査法そのものに注目するあまり、施設での検査全体の流れにシステム的視野をもてず、医療のパフォーマンスが向上できず一部悪化した、という2015年に学術誌JAMAへ掲載され話題となった研究を好例に挙げて論理展開した。

今後の医療AIをめぐる規制が、システム更新の度に果てしない検証試験を開発者へ求め続けるならば、彼らの革新への意欲は減退し、追加データで進化することのない「Locked(閉ざされた)」アルゴリズムに留まらせてしまう。それは医療AIがもつ真の社会的価値を発揮させないだろう。規制当局にとって困難な課題だが、システム全体を俯瞰した適切なバランスの規制へシフトすることを著者らは未来志向で期待している。これは米国FDAのみならず、日本のPMDA(医薬品医療機器総合機構)にも投げられる普遍的な問いかけである。

TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事