医療とAIのニュース医療におけるAI活用事例医療AIがもたらす影響・問題点デリケートな健康問題はAIチャットボットへの相談が最適か?

デリケートな健康問題はAIチャットボットへの相談が最適か?

「スティグマ(stigma)」は差別や偏見を意味し、医療の文脈でも用いられている。例えば性感染症のような疾患には、人間性に及ぶ否定的な意味付けがなされてしまうことも珍しくない。今回のCOVID-19をめぐる情勢においても、感染者に対するスティグマ問題は顕在化した。それらデリケートな健康問題について話し合う際に「AIチャットボットが患者の心を開く可能性」が、英ウェストミンスター大学の研究グループから発表されている。

SAGE Digital Healthに発表された同研究によると、英国市民を対象として「AIチャットボットの受け入れ度合いが、スティグマや疾患重症度に応じてどのように変化するか」という調査が行われた。チャットボット/GP(一般開業医)/GP-チャットボットの組み合わせ、それぞれに対して健康問題の相談先として患者の受容度を評価した。その結果、最も患者の受け入れが良好であったのは「GPに対する相談」、次いで「GP-チャットボットの組み合わせ」であった。特にがんのような深刻な健康問題の相談先としてチャットボット単体では受け入れられにくかった。しかし、「スティグマ性が高い健康問題」に関してはチャットボットが相談先として受け入れの可能性が有意に高いことが示された。

本研究では、全般的には医療従事者が相談相手として最も望ましいと認識されるものの、GPに相談しにくいと感じるスティグマ性の高い症状については、チャットボットが患者の発言を促すことに役立つことを初めて明らかにしている。ウェストミンスター大学のリリースによると、著者のひとりでウェストミンスター大学主任研究員のTom Nadarzynski氏は「AI開発者にとって、症状チェックやリスク算出などのAIベースのヘルスケアツールが、患者に受け入れられる介入かどうか評価する必要がある」と語っている。

関連記事:

  1. 遺伝性がんカウンセリングへのAIチャットボット「Angie」
  2. チャットボットベースの症状チェッカーに欠けているもの
  3. メンタルヘルスへのチャットボット – 自殺リスク発言を遺書から学習
  4. 認知症支援チャットボットの可能性と改善点
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事