医療とAIのニュース医療におけるAI活用事例最新医療AI研究ChatGPTの医学的回答は人間とほぼ識別不可能

ChatGPTの医学的回答は人間とほぼ識別不可能

チャットボット技術の進歩は、患者・医療者間のコミュニケーションを支援する可能性を示しているが、より踏み込んだ「臨床的役割」を果たすには慎重な検証が必要となる。米ニューヨーク大学の研究チームは、「医療に関連する質問におけるChatGPTの回答が、人間の回答とほとんど区別がつかない」とする研究結果を報告した。

JMIR Medical Educationに掲載された同研究では、電子カルテから抽出された代表的な患者の質問10項目に対し、回答の半分は人間の医療者が、残り半分はChatGPTが人間の回答と同等の語数で作成した。18歳以上の392名に及ぶ被験者にこれらの質問と回答を提示し、回答がAIによるものか人間によるものか判断させる「チューリングテスト」を行った。その結果、被験者はChatGPTの回答を65.5%(1284/1960件)、人間の医療者の回答を65.1%(1276/1960件)の割合で正しく識別した。これは、ChatGPTの回答と人間の回答をほぼ区別できないことを示唆している。

さらに、ChatGPTの回答への信頼度を「1.全く信頼できない」から「5.完全に信頼できる」の5段階で評価させたところ、平均スコア3.4であった。特に、予約スケジューリングや保険に関する事務的な回答への信頼度が高く(平均3.94)、一方で、より複雑なタスクである診断に関する回答(平均2.90)や治療に関する回答(平均2.89)への信頼度は低下していた。研究チームは、チャットボットの役割が管理業務からより臨床的なものへと移行するにつれて、患者とチャットボットとの相互作用を評価することの重要性を強調している。

参照論文:

Putting ChatGPT’s Medical Advice to the (Turing) Test: Survey Study

関連記事:

  1. 「市民が抱く健康課題」へのChatGPTの回答能力
  2. ChatGPTの回答が患者により好まれる可能性
  3. ChatGPTが「乳がん関連の健康アドバイス」で有効性を示す
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事