新薬開発では、臨床試験参加者が特定の集団に偏ると、別の集団で効果が不十分となったり副作用が多く発生するようなことがよく起きた。その歴史を経て、近年では試験参加者の多様性を重視するのが当たり前となっている。しかし、医療AI開発でも同じ過ちが繰り返されようとしているのかもしれない。データセットの性別不均衡によるバイアス問題は以前に紹介した(過去記事)。
スタンフォード大学のニュースでは、米国におけるほとんどのAIアルゴリズム開発が3つの州の患者データセットに偏っていることを示した論文を紹介している。同大学の研究グループは「ディープラーニングアルゴリズムに使用されたトレーニングデータの地理的分布」について学術誌 JAMAに発表した。査読付き学術誌に投稿された近年5年間の研究論文を調査したところ、71%の論文でカリフォルニア・マサチューセッツ・ニューヨークの3州のいずれかの患者データを使用していた。また60%の研究では3州いずれかからのデータのみに限って利用していた。一方、34州からは全くデータ提供がなく、残り13州からも限られたデータしか提供されていなかった。
同研究では、この地域的に偏ったデータセット利用のAIが、望ましくない結果を示したかどうかについては明らかにしていない。しかし、革新的なAIアルゴリズム開発には、より大規模で多様なデータセットが必要であることは誰もが認めるところであろう。筆頭著者であるAmit Kaushal氏は「AIが臨床医学に参入しようとするときに、かつてと同じ誤りを繰り返すのを30年40年も待つべきではありません。問題の向かう先を見定め、前もって対処すべきです」と語っている。