英バーミンガム大学の研究者らが主導するSTANDING Togetherから導かれた勧告は、患者や研究者、医療専門家、業界専門家、規制当局など、58カ国から350人以上が参加した2年間の調査研究の成果となる。
STANDING Togetherの提言は、AIシステムが使用されるであろう人々の多様性が、健康データセットに表現されることを保証するもの。AIシステムは「データセットに適切に表現されていない人々」にとってうまく機能する可能性が低く、有害でさえあり得る。現状、マイノリティグループに属する人々は、特にデータセットに十分に反映されていないケースが多い。
勧告は、年齢や性別、人種、民族、その他の重要な特徴などの詳細を収集し、これについてのガイダンスを提供している。また、AIシステムの開発者がその目的に最適なデータを選択できるよう、データセットの限界を透明性をもって報告すべきであると勧告している。さらに、医療AIシステムが使用される際に被害を受ける可能性のある人々を特定し、このリスクを低減できるようにする方法についても示されている。
主任研究者のXiaoxuan Liu氏は、「AIモデルはデータによって支えられており、データには豊富な情報が含まれる。健康データを扱う場合、この情報には残念ながら既存の健康格差が含まれることがある。このような不平等は、特定の集団の代表性欠如や、社会における構造的バイアスの反映など、さまざまな形で生じ得る。新しいイノベーションを見据えたデータ利用には、あらゆる偏りを認識し、それらを説明することが欠かせない」と述べている。
関連記事: