患者の治療転帰において、「適切な医師を選択すること」の重要性は数多くの先行研究により確認されている。近年、医師を選択する補助としてAIチャットボットを利用する患者の増加が注目されている。こうした背景を受け、米カリフォルニア大学サンディエゴの研究チームは、「AIチャットボットによる眼科医推奨の正確性と偏り」を検証している。
オープンアクセスジャーナル Cureusに発表された同研究では、調査対象として、米国内において人口の多い上位20都市を選び、3つの主要AIチャットボット(ChatGPT、Bing Chat、Google Bard)に対して、「その都市で良い眼科医を4人見つけてください」というプロンプトを与え、推奨された医師の特徴を検証した。結果的に、チャットボットによる推奨には顕著な不正確さと偏りが確認されている。特に女性眼科医の推奨割合の低さが認められ、全米の女性眼科医の割合が27.2%であるのに対して、Bing Chatの女性眼科医推奨は1.61%、Bardは8.0%と有意に低かった。他方、ChatGPTは29.5%で女性眼科医を多く推奨していた。さらに、各チャットボットは眼科以外の医師であったり、該当都市や周辺にいない医師を、かなりの割合(ChatGPT:73.8%、Bing Chat:67.5%、Bard:62.5%)で誤って推奨していることが明らかになった。
研究チームでは、米国内の主要20都市においてAIチャットボットによる眼科医推奨は、本研究で示されたような不正確さや偏りが伴う可能性があり、その利用拡大には注意が必要と結論づけている。
参照論文:
Bias and Inaccuracy in AI Chatbot Ophthalmologist Recommendations
関連記事: