医療AIは高精度な意思決定の可能性を提供し続けている。一方、比較的均質なデータセットや、根底にある多様性を十分に代表しない集団で学習したAIモデルは、その一般化可能性を制限し、偏りのある情報提供に終始する危険性がある。米ハーバード大学やマサチューセッツ工科大学などの研究チームは、「既存のAI研究がどのような人々によって進められ、どのようなデータが扱われてきたか」を仔細に検討したレビューの結果を公表した。
PLOS Digital Healthから公開された論文によると、研究チームは、2019年にPubMedで公開されていた「AI技術を用いた臨床論文」のスコープレビューを実施した。手動でタグ付けされたサブサンプルを使用し、既存のBioBERTモデルを基に構築した転移学習モデルを用い、論文の包含適格性を予測するようトレーニングした。30,576報の論文のうち、適格となった7,314報を解析したところ、AI研究の根幹となるデータベースは米国からが40.8%、次いで中国からが13.7%と、AI論文の実に半数以上が米中のデータベースに依存していることを明らかにした。さらに、ファーストオーサーおよびラストオーサーの専門性予測においては、臨床医ではなく、統計学者をはじめとするデータの専門家が大半を占めていた。また、ファースト/ラストオーサーの性別は男性が74.1%と、女性を大幅に上回っていることも確認されている。
医療AI研究の著者とデータセットは、米中をはじめとした一部の国に偏っており、上位10位までのデータベースと著者の国籍はほぼ全てが高所得国(HICs)となっていた。研究者らは「長期的にはデータが乏しい地域での技術インフラの開発、短期的には臨床導入前の外部検証、モデルの再キャリブレーションに取り組むことが、グローバルな健康格差を永続させないためにも極めて重要である」ことを強調している。
関連記事: