CTやMRIのような画像検査で、患者の被曝や拘束時間に対して解像度はトレードオフの関係にあった。近年、患者負担を低減するためにスキャン時間を短くし、AIアルゴリズムで画像を再構成して補正するという手法が追求されている。しかしこれら技術によって最終的に出力される画像に不要なエラーを生むことが示唆されている。学術誌「米国科学アカデミー紀要(PNAS)」には、ケンブリッジ大学を中心としたグループから画像検査用AIの不安定性を確認する研究が発表されている。
ケンブリッジ大学のニュースリリースによると、研究ではCTやMRIにおけるAIベースの画像処理システムの不備をみつけるためのテストを設計した。そこには3つの重要な課題が設定されている。1. 微動や動揺、2. 微小な腫瘍の有無、3. データ圧縮やサンプリング、の不安定性について問題となった。結果、最終出力画像に無数のノイズがのったりぼやける、微小腫瘍が除去されてしまう、データ圧縮のサブサンプリングで画像品質が低下するという事象が多数みられた。これは様々なタイプのニューラルネットワークに広くみられるエラーであり、解決の難しさが示唆された。
研究グループが最も心配するのは、これらの画像検査用AIによるエラーが、単に技術的な問題として看過されず、読影する医師に医学的な問題として解釈されてしまう可能性である。旧来のスキャンは、撮像の時間的な負担などから画像品質の限界がある程度みえていたが、現代のAIと画像再構成技術はその障壁を取っ払ってしまった。その結果、技術の限界がわからなくなり不安定性という代償が伴ってしまっている。研究者たちがAI技術の現時点での限界を明確にすることに大きなコストを払っているという点について、ケンブリッジ大学のAnders Hansen博士は「いまだに無料の昼食は存在しない」とことわざを引き合いに出している。