AIシステムは医用画像処理において高い性能を発揮し、専門医あるいはそれを超える識別能を示す事例も多数みられている。一方で、女性患者や黒人患者、社会経済的地位の低い患者など、歴史的に特に十分なサービスを受けてこなかった集団において、AIシステムが人間の持つバイアスを反映・増幅することで、「パフォーマンスの質」を低下させるのではないかという懸念が高まっている。
このようなバイアスは、AIアルゴリズムが「疾患を持つ個人を健康である」と不正確に判定することで、治療へのアクセスを遅らせる可能性があるなど、過小診断の文脈で特に問題となる。このほどNature Medicine誌から公開された研究論文によると、トロント大学とマサチューセッツ工科大学などの共同研究チームは、3つの大規模胸部X線データセットと1つのマルチソースデータセットを用い,胸部X線画像におけるアルゴリズムによる過小診断を検証した。結果として、先端の分類器は一貫して「医療サービスの恩恵を受けていない患者集団」を選択的に過小診断しており、過小診断率はヒスパニック女性患者のような「特定の部分集団」でさらに高いことを明らかにしている。
著者らは「バイアスを含むAIシステムの展開は、既存ケアのバイアスを悪化させるリスクがあり、医療への不平等なアクセスをもたらす」とし、これらのモデルを実臨床で使用することに対する倫理的な懸念を改めて表明している。
関連記事: