ChatGPTを各国の医師国家試験に挑戦させる研究が注目されている。サウジアラビアの研究グループは、同国の医師国家試験(SMLE: Saudi Medical Licensing Exam)に対するChatGPT(GPT-4)の解答能力を評価した。
オープンアクセスジャーナルCureusに発表された同研究では、SMLEの4つの主要領域、すなわち内科、小児科、産婦人科、外科から抽出された4肢選択問題220問を対象として、ChatGPTに解答させた。その結果、総合的な正答率は88.6%に達し、各セクションにおいても好成績を記録した(内科57/66、小児科49/55、産婦人科53/55、外科39/44)。
先行研究でも指摘されているように、基礎的な医学知識に関する問題ではChatGPTは正答率が高いのに対し、複雑な臨床シナリオや希少疾患に関する問題においては正答率が低下する傾向が見られた。現段階での解答能力の限界からは、従来の学習方法との併用が医学生にとって適切と研究チームは主張する。しかし、今後の技術進歩と応用範囲の拡大が進めば、国家試験の準備や医師の生涯学習の方法に大きなイノベーションがもたらされる可能性がある。
参照論文:
関連記事: