米マサチューセッツ工科大学(MIT)のコンピュータ科学・AI研究所(CSAIL)のチームは「偏ったAIモデルが緊急時の意思決定に与える影響」を評価し、「AIのアドバイス方法次第でバイアスの弊害が軽減できる可能性」を報告している。
Communications Medicineに掲載されたオンライン研究では、438名の臨床医と516名の一般参加者に対して、「精神科的な緊急事態にある男性患者の緊急通報」を提示した。通報内容には男性が白人かアフリカ系アメリカ人かが記載され、イスラム教徒の場合には宗教にも言及されている。患者が暴力的になると考えた場合は警察に通報、そうでない場合は医療機関に助けを求めることとし、同時に参加者は、偏ったAIモデル(アフリカ系アメリカ人やイスラム教徒を警察に通報するよう求めやすい)と偏りのないモデルからアドバイスを受ける、あるいはAIによるアドバイスが無いケースがある。さらに、AIのアドバイスには「処方的な推奨」を行う、つまり警察を呼ぶべき、医療を求めるべき、のように取るべき行動に言及するタイプと、もう一方では「記述的な情報提示」を行う、つまり具体的な行動を求めず、暴力の危険が高い状況にフラグを立てるタイプ、が用意された。
この研究の重要な結果として「偏ったAIによる処方的アドバイスで、意思決定は最も影響を受けやすい」が、その一方で「偏ったAIでも、処方的アドバイスではなく記述的アドバイスを用いると、偏りのない意思決定を維持できる」ことが示されている。そして、この傾向は臨床医や一般参加者による差を認めなかった。これらの結果は「AIに組み込まれたバイアスは、アドバイスの手法次第で意思決定への影響を軽減できる」ことを示唆している。著者らはこの理由を「フラグの有無で状況を説明する記述的アドバイスは、参加者に解釈する余地を与え、より柔軟に自分自身で状況を考えることを可能にするため」としている。
関連記事: