大規模データセットの分析は医療AI構築の要となるが、アルゴリズムのトレーニングおよびテストにはデータアクセスに伴う種々の問題が生じる。医療機関は当然にして患者情報の機密性に主たる関心があるが、研究者にデータを共有する場合「真に必要なデータのみを利用しているか」、また「事後には適切にデータを削除しているか」を確認することは事実上困難である。
米マサチューセッツ工科大学(MIT)の研究者らは、「Secure AI Labs」(SAIL)と呼ばれる、暗号化されたデータセット上でAIアルゴリズムをトレーニング・実行させる技術を開発している。SAILプラットフォームを活用することで、医療機関はデータ共有のためにシステムからデータを外部に持ち出す必要がないため、データセットの使用方法とセキュリティを厳格に管理することができる。同時に研究者は、AIモデルや検索クエリの機密性を保持しつつ、スムーズなデータアクセスによって成果物を得ることができる。
MIT教授のManolis Kellis氏らによってSAILは法人化されており、既に種々の医療機関やライフサイエンス企業との提携を進めている。MITが報じたところによると「2023年には、全米トップ50の学術医療センターの約半数と連携したい」としている。SAILのアプローチにより、より多くの研究者が大規模なデータセットにアクセスできるようになる。MITのKellis研究室では、研究者コミュニティの関心をさらに高めるため、タンパク質機能や遺伝子発現などの領域におけるデータセットを利用し、研究者に結果を予測させるコンペティションを開催するなどの取り組みも始めている。
関連記事: