医療とAIのニュース医療におけるAI活用事例医療AIがもたらす影響・問題点AIアシスタントを医療者はいつから信用できるのか?

AIアシスタントを医療者はいつから信用できるのか?

医療者は、いつどのタイミングからAIシステムの予測を信用できるようになるか。自身の専門知識、システム全体の信頼度、アルゴリズムが予測した手法の説得力、といった条件を参考に私たちはAIを信用するきっかけを見極めようとしているが、それは単純なことではない。米マサチューセッツ工科大学(MIT)の研究者らは「AIを信頼するタイミングを理解するための介入手法」を開発・検証している。

MITのリリースでは、2月に開催されるAI関連学会で発表予定の研究内容を紹介している。本研究では、「AIモデルを人間に徐々に紹介し、その長所と短所を自分の目で確認できるような段階的教育」を提案している。そこでは、人間が他人に対して構築するメンタルモデルが注目されている。例えば、放射線科医がある症例について確信が持てず、その専門分野の同僚に尋ねるとき、「自身の過去の経験」と「同僚に対する知識」から相談相手の長所・短所のメンタルモデルを構築することで、受けるアドバイスを評価する。人間とAIの対話においても同様のメンタルモデルが構築されるとして、本研究ではAIについて学ぶ最適な例題を特定していった。トレーニング問題(例「2つの植物のうち、どちらが多くの大陸に自生しているか」)では、1. 人間が自分で答える 2. AIシステムに答えさせる を選択することができる。しかし、ユーザーは事前にAIの回答を見ることができないため、AIに対するメンタルモデルに頼る必要がある。つまり、「果物の質問ではAIが間違ったが、地質学についてはAIが正解した」といったフィードバックを受けるとともに、システムが予測に用いた言葉がハイライト表示されることで、人間はAIエージェントの限界を理解していく。さらにユーザー自身が学習・推測したルールを「このAIは花の予測が苦手」などと書きとめさせることで、AIに対するメンタルモデルを形式化させていく。

このトレーニング技術は、AIが自分の能力をどのように補うかを示すことで、人間がAIエージェントと一緒に仕事をする際、より良い判断をより早く下すのに役立つと考えられる。今回、「トレーニングを受けたグループ」は、「トレーニングを受けずにAIの回答を事前に見ることができたグループ」と同等にAIの能力を正確に把握できたという。しかし、結果にはまだギャップがあり、AIに対する正確なメンタルモデルを構築できたのはトレーニングを受けた人の約半数であった。また、AIが正しいはずだと分かっているケースでも「なぜ人は自分のメンタルモデルに耳を傾けようとしないのか」が、AI研究者を悩ませる疑問となってきた。この課題解消のため、研究グループはさらに手法を改良したいと考えている。

関連記事:

  1. ヘルスケア幹部の4人に3人が「管理プロセスの自動化でAIを信頼」
  2. 患者がAI医療を信用しない理由 – 能力でもお金でもない答えは?
  3. MIT – ニューラルネットワークをいつ疑うべきなのか?
  4. ドイツでの有識者懇談会 – AI技術の信頼性向上へ

TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。
The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。

1. 岡本 将輝
信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員准教授など。専門はメディカルデータサイエンス。

2. 杉野 智啓
防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事