大規模言語モデル(LLM: large language model)の急速な普及にあわせて、ヘルスケア領域における活用可能性も多方面で明らかになりつつある。世界保健機関(WHO)はLLMの利用動向を厳しく監視しており、ユーザーの熱狂的な期待の中で、新しい技術に対して払われるべき注意が、LLMのリスク評価について未だ十分でないことに懸念を表明している。
WHOは16日付の声明において、安全かつ倫理に基づいたLLMの利用を強く促しており、以下の5つの点を指摘する。1. AIの訓練データに潜む偏りの可能性が、健康、公平性、包摂性へのリスクとなり、誤解を生む不正確な情報を生成する場合がある。2. LLMは一般ユーザーに権威性があるもっともらしい回答を生成するものの、健康情報については完全に誤っている場合や深刻なエラーを含む可能性がある。3. ユーザーがLLMのアプリケーションに提供する機密情報が、適切に保護されない可能性がある。4. LLMに説得力のある偽情報を生成させて拡散する手段として悪用されると、一般ユーザーは情報の信頼性を判断することが困難となる。5. テクノロジー企業がLLMを商用化する過程で、患者の安全が保護されるよう、WHOは政策立案者らに提言を続けていく。
この声明は、WHOが新しい技術の潜在的利点を認識しつつ、その社会実装においては患者の安全と保護が最も重要であるという姿勢を強く示している。そして、個人、ヘルスケアプロバイダー、システム管理者、政策立案者、どの立場にある者でも、ヘルスケアに新たな技術を広く採用する前には以上の懸念に対処し、有益性の明確なエビデンスを評価することを強く推奨している。
関連記事: