AIに臨床的な共感を代替させてはいけないのか?

AIの活用が臨床医学において有望な結果を示す一方で、臨床的な「共感」の問題は現在のAIアプローチでは解決できないと、米カリフォルニア大学バークレー校(UCバークレー)の生命倫理学教授で臨床的共感の専門家であるJodi Halpern博士が意見を提起している。

UCバークレーのニュースリリースでは、Halpern教授が学術誌AI & SOCIETYで発表した「共感型AIの原理的障害:ヘルスケアでなぜ人間の共感を代替できないのか」という論文を紹介している。Halpern教授は、臨床的共感が患者の治療成績を向上させる3つの要素、①正しい診断のための良好な病歴聴取において医師が共感を示した場合、患者は多くの情報を開示する、②治療結果は患者が治療を守るかにかかっており、治療継続を予測する最大の要因は医師への信頼である、③共感的な文脈で伝えられた悪い知らせには患者はうまく対処できる、と例示している。これらを踏まえると、臨床的な対話の場にAIを使用することは、苦痛を感じている患者にとって真の人間的な共感に対する期待を損なうため、非倫理的であると結論づけている。

Halpern教授は「AIが医療のあらゆる側面に貢献することがあっても、治療上の共感を得るために主治医と患者の関係に取って代わるような使い方はしないでほしい」と語っている。AI研究では、その用途や範囲に「原理的な(in principle)」制限はないという考えが主流となっている。しかしHalpern教授らは論文の中で、共感型AIは不可能、または非道徳的、あるいはその両方であるとして、そこに原理的な障害があると主張している。同論文の問題提起は、我々が医療サービスにおけるAIの可能性を考える際に念頭におくべき重要な視点かもしれない。

関連記事:

  1. 世界の精神科医たちは医療AIを強く疑っている? – SERMOの国際意識調査から
  2. The Orsini Way – 医師の「共感力」を高めるデジタルプラットフォーム
  3. AIが事務作業を削減すると医師の仕事に魅力が生まれるか?

前の記事精神疾患治療のアドヒアランス不良を検出するAIシステム
次の記事反科学的イデオロギーをTwitterから追跡する研究
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。
The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。

1. M.Okamoto MD, MPH, MSc, PhD
信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、ロンドン大学ユニバーシティカレッジ(University College London)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員を経て、SBI大学院大学客員准教授、東京大学特任研究員など。専門はメディカルデータサイエンス。

2. T.Sugino MD
防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。