「ヘルスケアにおけるAIツールの公平性」に関する論文群の調査により、この種の研究において「著者の多様性」が欠如している可能性が明らかとなった。研究論文はmedRxivからこのほど公開されている。
研究では、1991年から2022年の間に296誌に掲載された、ヘルスケアにおけるAIの公平性に関する375の研究・総説を分析した。1,984人の著者のうち、64%が白人であったのに対し、27%がアジア人、5%が黒人、4%がヒスパニックと、その人種的背景には大きな偏りがみられた。また、著者の60%が男性、40%が女性であり、研究を主導する上級職であることが多い「ラストオーサー」で特に男女差が大きくなっていることも明らかとなっている。
研究の共著者であり、米マサチューセッツ工科大学の医療情報学者であるLeo Anthony Celi氏は「これらの結果は、研究コミュニティ全般で起こっていることを反映している」と述べ、チームは、研究者や研究機関、資金提供機関がこの重要な側面に注意を払う必要があることを強調している。
参照論文:
Who does the fairness in health AI community represent?
関連記事: