AOSLO(適応光学走査型レーザー検眼鏡)画像は、生体内で錐体視細胞を可視化できる一方、定量解析には熟練者による手動での細胞同定が必要で、時間と専門性を要する。自動化が求められてきたが、AOSLOの性質上高品質画像の大量取得は容易ではなく、正確なラベル作成には専門家の多大な労力と時間を要するため、ラベル付き実画像の不足が大きな障壁となっていた。こうした課題に対し、研究チームは合成画像を用いて学習させた深層学習モデルを構築し、錐体自動検出の精度を実データで検証した。これらの成果が、英国オックスフォード大学の研究チームによりScientific Reportsに掲載された。
研究では、錐体フォトレセプターモザイクの合成画像を生成する既報のシミュレーションツールであるERICA(Emulated Retinal Image CApture)により生成したAOSLO画像の大規模な合成データセットと、実画像の小規模なAOSLOデータセットで学習された。その結果、Dice係数0.989と、自動錐体検出法のゴールドスタンダードであるCNN法やグラフ理論ベース手法と同等の精度を示し、専門家による手動ラベリングと同等の一致度を示した。
今回の研究は、合成データを活用することで注釈付き実画像の不足を補い、AOSLO画像の自動解析を実現できる可能性を示唆する。錐体モザイクの定量評価が自動化されれば、網膜疾患における細胞レベルのバイオマーカー抽出が現実味を帯びる。今後は杆体や血管を含むより多様な病的画像への拡張が期待され、診断や治療効果判定への応用が進む可能性がある。
参照論文:
関連記事:





















