XAIとは何か? – ブラックボックス化しない説明可能な医療AIを目指して

AIが指摘した病変部位や診断について、アルゴリズムの思考過程が説明できない、いわゆるブラックボックス化(過去記事)は常に論点になってきた。AIが出力した情報を補助し、判断根拠を説明するための技術全体を示す用語「XAI(エックスエーアイ): Explainable AI」が、米国国防高等研究計画局(DARPA)の主導するプロジェクトなどから派生し、浸透してきている。

米メディアForbesでは、医療分野特有といえるXAIが求められた背景や今後の方向性を解説している。そもそも医療以外の分野では開発した貴重なAI技術を企業秘密として保持することが許容され、ブラックボックス化を問題とする風潮が少ない。スマートスピーカーの返事に対して、どうしてそのような回答をしたのかと悩む消費者は少数だろう。ところが医学的判断では、その誤りが重大で不可逆的な結果となることを許容しにくい。そうして、医師やFDAなど規制当局が、説明不可能なAIを信頼することが難しくなる。さらには、開発されたAIアルゴリズムは、その後に臨床現場での妥当性の検証を経る必要があるため、末端のユーザーは説明不可能なAIの検証作業に協力できなくなる。

XAIに対する関心は高まり続けている。一方、どのような説明方法が適切か、知見の蓄積は不十分といえる。XAIという言葉をきっかけに、社会的な認知度が高まり意識が共有されることで、改善が進む側面も期待される。XAIは医療における主流なアルゴリズムとなる可能性があり、開発にあたるグループや企業にとっては大きなリソースを当てることがますます重要になるだろう。

前の記事股関節の形状から変形性股関節症の将来発症を予測するAIアルゴリズム
次の記事Ambient Clinical Intelligence – 医師を書類作業から救うAI環境開発
TOKYO analytica
TOKYO analyticaは、データサイエンスと臨床医学への深い造詣を武器とし、健康に関するあらゆるモノ・コトのエビデンス構築・普及をお手伝いするメディカルコンサルティングプロジェクトです。
The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。

1. M.Okamoto MD, MPH, MSc
信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、ロンドン大学ユニバーシティカレッジ(University College London)科学修士課程最優等修了(MSc with distinction)。専門はメディカルデータサイエンス。ロンドンでのベンチャーエンジニアを経て、英国内の大学で医療データベース研究に従事。

2. T.Sugino MD
防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。