このほどnpj Digital Healthから公開されたパースペクティブ論文によると、医療における公平で偏りの無いAIを開発するためには、臨床医だけでなく、業界の多様な専門家の参画が欠かせないことを指摘している。
デューク大学とシンガポール国立大学の研究チームは、AIは幅広い医療応用の可能性が示されている一方、原理上にバイアスの懸念が常にあるため、その応用には限界があることを強調する。年齢や性別、人種などに代表されるサブグループ間で同等の性能を発揮することが期待される「公正なAIモデル」を構築・運用するためには、倫理学者やAIの専門家、各種臨床家など、多様な職種の協力が必要であるとしている。著者らが意図するのは完全な平等ではなく、公平性、つまり人種や性別などの要素を認識し、より脆弱なグループが必要なケアを受けられるようにAIアルゴリズムやその適用を調整することに焦点を当てることが、臨床AIにとってより合理的なアプローチである可能性に言及する。
チームは、AIソフトウェア市場をナビゲートし、責任あるAI導入のためのベストプラクティスを確立する組織として「Health AI Partnership」を設立している。医療AIのユースケースを徹底的に理解し、関連するリスクを考慮しようとする。ここでも、業界標準と分野横断的な協力の必要性を強調している。
参照論文:
A translational perspective towards clinical AI fairness
関連記事: