医療とAIのニュース医療におけるAI活用事例大規模言語モデルの利用に対するWHOの懸念

大規模言語モデルの利用に対するWHOの懸念

大規模言語モデル(LLM: large language model)の急速な普及にあわせて、ヘルスケア領域における活用可能性も多方面で明らかになりつつある。世界保健機関(WHO)はLLMの利用動向を厳しく監視しており、ユーザーの熱狂的な期待の中で、新しい技術に対して払われるべき注意が、LLMのリスク評価について未だ十分でないことに懸念を表明している。

WHOは16日付の声明において、安全かつ倫理に基づいたLLMの利用を強く促しており、以下の5つの点を指摘する。1. AIの訓練データに潜む偏りの可能性が、健康、公平性、包摂性へのリスクとなり、誤解を生む不正確な情報を生成する場合がある。2. LLMは一般ユーザーに権威性があるもっともらしい回答を生成するものの、健康情報については完全に誤っている場合や深刻なエラーを含む可能性がある。3. ユーザーがLLMのアプリケーションに提供する機密情報が、適切に保護されない可能性がある。4. LLMに説得力のある偽情報を生成させて拡散する手段として悪用されると、一般ユーザーは情報の信頼性を判断することが困難となる。5. テクノロジー企業がLLMを商用化する過程で、患者の安全が保護されるよう、WHOは政策立案者らに提言を続けていく。

この声明は、WHOが新しい技術の潜在的利点を認識しつつ、その社会実装においては患者の安全と保護が最も重要であるという姿勢を強く示している。そして、個人、ヘルスケアプロバイダー、システム管理者、政策立案者、どの立場にある者でも、ヘルスケアに新たな技術を広く採用する前には以上の懸念に対処し、有益性の明確なエビデンスを評価することを強く推奨している。

関連記事:

  1. WHO研究 – メンタルヘルスにおけるAI応用と課題
  2. WHO – 高齢者を置き去りにしないAI開発戦略
  3. WHOの新指針 – 医療AIの倫理およびガバナンス
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事