AI構築に用いる学習データの特性は、アルゴリズム全体に深刻なバイアス(偏り)を生むことがある。男女間・人種間で疾患識別精度が異なり予後に系統的なズレが生じるといった、医療現場における新時代のホラーストーリーは現実ともなり得る。一方で、ではこのバイアスを含むAIという存在は、いつも人類にとっての脅威でしかないのだろうか。
米ニューヨーク大学タンドン工科学校のKadija Ferryman氏は、今週行われたヘルステックの国際カンファレンス内において「例えば呼吸機能検査など、検査者によるデータ取得段階から、人種や世代に対する固定観念や潜在意識によって無意識的に結果を歪められたケースなど、一部に検出することがそもそも難しくなるバイアスも存在する」と話す。また、カリフォルニア大学バークレー校のZiad Obermeyer氏は「我々がこれまでに学んできたことは、データそのものが持つバイアスは、AIアルゴリズムに取り込まれバイアスを再現するという事実だ」とし、AIが含むバイアスへの適切な対処はデータの質を精査するしかないことを強調する。
一方でFerryman氏は「ただし、AIはバイアスを伝播させるだけの存在ではなく、バイアスに焦点を合わせるために活用することもできる」と持論を展開しており、常にバイアスの存在に危機意識を持てる事実こそが、データに包含される格差を調査し、修正しようとする原動力にも繋がることを指摘する。バイアスを含むAIが結果的にもたらした「見えないリスクを見ようとする新しい動き」こそが、人類の根源的な格差解消に向けた希望となるのかもしれない。