医療とAIのニュース医療におけるAI活用事例最新医療AI研究大規模言語モデルが「人種差の誤った医学知識」を拡散する恐れ

大規模言語モデルが「人種差の誤った医学知識」を拡散する恐れ

大規模言語モデル(LLM)が医療システムに組み込まれつつあるが、これらAIモデルには人種間格差を助長する恐れが指摘されている。米スタンフォード大学の研究チームは、各種AIチャットボットが黒人患者に関する様々な誤解やデマに基づく内容を回答し、情報を拡散する可能性を指摘した。

npj Digital Medicineに発表された同研究では、4つのAIチャットボット(ChatGPTと上位グレードのGPT-4、GoogleのBard、AnthropicのClaude)を検証している。各チャットボットに対して、現在では科学的に否定されている「人種に基づいた誤った医学知識」から9つの質問について、5回ずつ回答を生成させ、医師が回答内容を評価した。結果として、いずれのモデルも一貫した正確な回答の生成に失敗しており、腎機能や皮膚の厚み、肺活量といった内容に関して、過去の医学的な誤解を再生産していることが確認された。

研究チームは本研究の結果から、「LLMが人種差の誤解を完全に根絶するには、さらに多くの調整が必要で、まだ臨床に使用して技術を統合していく準備が整っていない」とした上で、「全ての質問に完全な回答を行うことは不可能ではあるが、最低限の患者の安全性を確保するには、普及に先立ったより大規模な定量的研究を必要としている」と指摘した。

参照論文:

Large language models propagate race-based medicine

関連記事:

  1. 胸部X線AIモデルが示す人種間と性別間のバイアス
  2. 米カリフォルニア州 – 人種的に偏ったAIへの対処を求める勧告案
  3. パルスオキシメーターの人種間格差是正へ
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事