AIアルゴリズムに人種差や性差などの偏りが入り込むことで、適性な働きができなくなる可能性は広く指摘されてきた。米国科学アカデミー紀要(PNAS)において、医療画像データセットで性差のバランスが満たされていない場合にも、AI画像診断の能力が低下することを示した研究成果が発表された。
26日に公開された同研究では、米国立衛生研究所(NIH)およびスタンフォード大学で管理されている数万人規模の胸部X線画像データセット2種類を対象としている。もともとこれらのデータセットではNIH版が男性56.5%、スタンフォード大学版が男性60%であり、通常の環境下ではその性別の偏りはあまり問題視されてこなかったという。しかし今回の研究で、男性:女性の画像データ比率を研究用に組み換えて検証を行ったところ、「男性比率が高いデータセット」でトレーニングしたAIアルゴリズムを女性に適用させた場合、診断能力が明確に低下することが確認された。
性差などのバイアスがAIアルゴリズムに入り込んだ際、どのような不具合を引き起こすかについて本研究は貴重な教訓となる。データセットの多様性については、我々が想定する以上にその影響を考慮しなければいけない。まず重要な一歩として、データセットの限界について認識することが必要であろう。