医療とAIのニュース医療におけるAI活用事例医療AIがもたらす影響・問題点AI意思決定の誤りを説明する研究 – 米テキサス大学アーリントン校

AI意思決定の誤りを説明する研究 – 米テキサス大学アーリントン校

AI/機械学習システムが医療の意思決定で重要な役割を果たすようになりつつあるなか、「説明可能なAI(XAI)」がより一層求められている(過去記事)。米テキサス大学アーリントン校(UTA)のコンピュータ科学者らは、3年間で38.5万ドルの助成金をアメリカ国立標準技術研究所(NIST)から得て、「機械学習システムがどのように意思決定を行い、誤った意思決定を行ったときに何が起こるか」を研究している。

UTAのリリースでは、研究を率いているコンピュータサイエンス・エンジニアリング学部教授Jeff Lei氏にインタビューを行っている。機械学習が大量のデータポイントを用いて判断を下す際に、判断となるポイントに近いデータは、遠いデータよりも大きな影響力を持つ。チームの研究は、学習データセット全体を見るのではなく、決定点に近いところの様々なデータポイントを見る「最近傍探索」を行うことで計算量を大幅に減らしている。データの偏りや、データ収集に人為的ミスがあったとき、判断に最も影響を与えたデータポイントを探索することでシステムの誤った判断につながった原因を特定できるという。

Lei氏は「AIは意思決定に役立つが、プロセスが複雑で、完全な透明にはなっていない。意思決定が重大な転帰をもたらす領域では深刻な課題である。社会の信頼を維持し、システムが意図通りに機能していることを保障するため、私たちは意思決定理由を説明し、誤った意思決定には根本原因を突き止め、修正案を提示していかなければならない」と語る。Lei教授らによる説明可能なAIの研究は、社会から求められているタイムリーなものとして、今後の医療AIの展開にも大きな影響を与える可能性を秘める。

関連記事:

  1. XAIとは何か? – ブラックボックス化しない説明可能な医療AIを目指して
  2. 乳がんの病理診断を説明可能なAI
  3. 実験心理学が「説明可能なAI」の生成にどのように役立つか?
  4. 緑内障の画像診断根拠を臨床医に説明できるAI – ソウル大学病院
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事