これまでの研究において、一般の人々の間で「AIが医療の意思決定に関わることへの懸念」がまだまだ根強いことが示されてきた。しかし、新しい研究では「AIの勧告に従った医療者は医療過誤の際に責任が少ない」と陪審員が認識する可能性が示唆されている。
学術誌 Journal of Nuclear Medicineに発表された「医師のAI使用の責任」に関する新しい研究では、米国の成人2,000名を対象にAIアルゴリズムが医師に卵巣がん治療薬の投与量を推奨したシナリオを読ませ、そこでおきた医療過誤の責任を評価させた。AIが「標準」か「非標準」の薬剤投与量を推奨した場合と、医師がAIの推奨を「受け入れた」か「拒否した」場合でシナリオは4パターンに変化するが、そのすべてで医療過誤が起きてしまう。結果、「標準的AI勧告を受け入れた医師」の方が「標準的AI勧告を拒否した医師」よりも好意的に判断された。さらに「非標準的AI勧告を受け入れた医師」はそれを拒否した方が安全であったとは判断されない傾向が示された。
研究チームは結果を受け、AIの勧告を受け入れた医師に対する法的責任の脅威は、従来考えられていたよりも小さくなってきた可能性があるとする。そして、それら障壁が低くなることでAIの医療利用が増え得ることに言及している。