米ワシントン大学などの研究チームは、皮膚科系の医療画像に対して「医学的に関連するアイデアを注釈」することができるAIモデル「MONET(medical concept retriever)」を開発した。研究成果は16日、Nature Medicineから公開されている。
研究チームは、PubMed論文や医学教科書群から105,550件の皮膚科画像とテキストのペアを収集し、MONETをトレーニングした。MONETは各アイデアに対し、医療画像にレーティングを付与し、画像がどの程度その概念を描写しているかを示すことができる。対照学習に基づくMONETは、画像に直接平易な言語記述を適用できるAIアプローチとなる。この手法では、手作業によるラベリングが不要であるため、教師あり学習では現実的に不可能な、大規模画像とテキストのペア情報を得ることができる。MONETのトレーニング後、研究者らはアノテーションやその他のAI透明性関連のユースケースにおける有効性も評価している。
コンセプトアノテーションのためのプラットフォームであるMONETは、アイデアの大規模なアノテーションを可能にすることで、皮膚科AIの透明性と信頼性を向上させることができるとして、研究者らは成果の重要性を強調している。
参照論文:
Transparent medical image AI via an image–text foundation model grounded in medical literature
関連記事: