手術動作を捉えるAI

Nature Biomedical Engineeringに掲載された最近の研究で、米カリフォルニア工科大学などの研究チームは、手術映像から「外科医の術中動作を解析するための画像認識モデル」を構築し、外科医のパフォーマンス向上に向けた活用を提案している。

研究論文によると、本研究ではロボット手術中に撮影された映像を利用し、術中の手技動作の要素を解読するため、Vision Transformerモデルを採用している。Vision Transformerは2020年にGoogleから発表された画像認識モデルで、自然言語処理におけるブレイクスルーとなったTransformerをコンピュータビジョンに応用したもの。手術針の取り扱いや動きを詳細に識別する同モデルは、非常に高い識別精度で外科処置の複雑な動作を捉えていた。

著者らは「手術映像のサンプルから、術中動作の高精度な画像分析モデルを構築できた」とし、外科手技のばらつきを客観的なモニタリングで捉えることで、全体的なパフォーマンス向上に向けた活用が期待されることを明らかにしている。また、術中動作と患者の長期的な転帰の関連を調べることで、予後改善に向けた取り組みも可能となることが期待される。

参照論文:

A vision transformer for decoding surgeon activity from surgical videos

関連記事:

  1. MySurgeryRisk – 手術合併症を正確に予測するAIシステム
  2. 腹部ヘルニア手術後の有害転帰を高精度に予測
  3. 脳外科手術トレーニングでAIチューターが人間の指導パフォーマンスを上回る
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事