ChatGPTの登場により、あらゆる領域で大規模言語モデルの可能性が熱い議論を呼んでいるが、当然、ヘルスケア・ライフサイエンス領域も例外ではない。
マサチューセッツ総合病院・ハーバードメディカルスクールの研究チームは、米国の医師資格試験であるUSMLEの3つのコンポーネントをChatGPTがパスしたとして、プレプリント論文をmedRxivから公開し、話題となった(「Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models」)。
また直近では幾つかの学術論文において、ChatGPTが「著者として」クレジットされたことも有識者の議論の的となっている。これについて権威ある学術誌のエディターらが声明を出しているが、Science誌のHolden Thorp氏は「我々はAIを著者として記載することは許さず、適切な引用なしにAIが生成したテキストを使用することは、盗用とみなされる可能性がある」としている。
ChatGPTの著者性についてはユーモアや学術的な陶酔があったにせよ、特に安全性が要となる領域においては、致命的なミスリードがエビデンスの集体に組み込まれぬよう、適切な評価フレームワークを慎重に開発し、備える必要があることは間違いない。
関連記事: