AIの活用が臨床医学において有望な結果を示す一方で、臨床的な「共感」の問題は現在のAIアプローチでは解決できないと、米カリフォルニア大学バークレー校(UCバークレー)の生命倫理学教授で臨床的共感の専門家であるJodi Halpern博士が意見を提起している。
UCバークレーのニュースリリースでは、Halpern教授が学術誌AI & SOCIETYで発表した「共感型AIの原理的障害:ヘルスケアでなぜ人間の共感を代替できないのか」という論文を紹介している。Halpern教授は、臨床的共感が患者の治療成績を向上させる3つの要素、①正しい診断のための良好な病歴聴取において医師が共感を示した場合、患者は多くの情報を開示する、②治療結果は患者が治療を守るかにかかっており、治療継続を予測する最大の要因は医師への信頼である、③共感的な文脈で伝えられた悪い知らせには患者はうまく対処できる、と例示している。これらを踏まえると、臨床的な対話の場にAIを使用することは、苦痛を感じている患者にとって真の人間的な共感に対する期待を損なうため、非倫理的であると結論づけている。
Halpern教授は「AIが医療のあらゆる側面に貢献することがあっても、治療上の共感を得るために主治医と患者の関係に取って代わるような使い方はしないでほしい」と語っている。AI研究では、その用途や範囲に「原理的な(in principle)」制限はないという考えが主流となっている。しかしHalpern教授らは論文の中で、共感型AIは不可能、または非道徳的、あるいはその両方であるとして、そこに原理的な障害があると主張している。同論文の問題提起は、我々が医療サービスにおけるAIの可能性を考える際に念頭におくべき重要な視点かもしれない。
関連記事: