医療とAIのニュース医療におけるAI活用事例AIを巡る医療経済・政策XAIとは何か? - ブラックボックス化しない説明可能な医療AIを目指して

XAIとは何か? – ブラックボックス化しない説明可能な医療AIを目指して

AIが指摘した病変部位や診断について、アルゴリズムの思考過程が説明できない、いわゆるブラックボックス化(過去記事)は常に論点になってきた。AIが出力した情報を補助し、判断根拠を説明するための技術全体を示す用語「XAI(エックスエーアイ): Explainable AI」が、米国国防高等研究計画局(DARPA)の主導するプロジェクトなどから派生し、浸透してきている。

米メディアForbesでは、医療分野特有といえるXAIが求められた背景や今後の方向性を解説している。そもそも医療以外の分野では開発した貴重なAI技術を企業秘密として保持することが許容され、ブラックボックス化を問題とする風潮が少ない。スマートスピーカーの返事に対して、どうしてそのような回答をしたのかと悩む消費者は少数だろう。ところが医学的判断では、その誤りが重大で不可逆的な結果となることを許容しにくい。そうして、医師やFDAなど規制当局が、説明不可能なAIを信頼することが難しくなる。さらには、開発されたAIアルゴリズムは、その後に臨床現場での妥当性の検証を経る必要があるため、末端のユーザーは説明不可能なAIの検証作業に協力できなくなる。

XAIに対する関心は高まり続けている。一方、どのような説明方法が適切か、知見の蓄積は不十分といえる。XAIという言葉をきっかけに、社会的な認知度が高まり意識が共有されることで、改善が進む側面も期待される。XAIは医療における主流なアルゴリズムとなる可能性があり、開発にあたるグループや企業にとっては大きなリソースを当てることがますます重要になるだろう。

TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事