大規模言語モデルによる医学論文捏造の可能性

言語モデルChatGPTを論文執筆に利用できる可能性(過去記事参照)について、多くの議論がなされている。米ニューヨーク州立大学などの研究者らは、ChatGPTを用いた論文捏造の実現可能性を検証し、この不正を特定する方法を調査している。

Patternsに掲載されたopinion論文では、ChatGPTで捏造した「2種類の関節リウマチ治療薬の有効性」に関する研究の抄録を、確立された3つのオンラインAI検出ツールでテストした。その結果、検出ツールは捏造された抄録をAIが生成したものと十分に認識でき、不正論文の提出を検知できる可能性が示された。一方、同じテキストを無料のオンラインツールにかけたところ「人間の可能性が高い」と示され、査読者・採択者側ではより優れたAI検出ツールの利用が必須と考察している。

従来の人為的な手法では、偽の研究結果でも信憑性を持たせるには膨大な労力を必要とし、単なる悪意で論文を捏造するのは負担に見合わなかった面もある。しかし、高機能な大規模言語モデルが作業を短時間で完了させることができる場合、恐ろしい結果をもたらす可能性が否定できない。著者らは医学研究が捏造される背景に、「悪意以外にも名声や資金獲得、キャリア形成に要する論文数といった多くのプレッシャー」を指摘している。また、米国医師免許試験(USMLE)のステップ1が合否判定型に制度変更されたことを受け、「野心的な学生が他者との差別化のため研究を捏造する動機となっていく可能性」についても言及している。

関連記事:

  1. ChatGPTが「論文著者となること」について
  2. 微生物学問題に対するChatGPTの回答能力
  3. 「ChatGPT支援診断」の可能性
TOKYO analytica
TOKYO analyticahttps://tokyoanalytica.com/
TOKYO analyticaはデータサイエンスと臨床医学に強力なバックグラウンドを有し、健康増進の追求を目的とした技術開発と科学的エビデンス構築を主導するソーシャルベンチャーです。 The Medical AI Timesにおける記事執筆は、循環器内科・心臓血管外科・救命救急科・小児科・泌尿器科などの現役医師およびライフサイエンス研究者らが中心となって行い、下記2名の医師が監修しています。 1. 岡本 将輝 信州大学医学部卒(MD)、東京大学大学院専門職学位課程修了(MPH)、東京大学大学院医学系研究科博士課程修了(PhD)、英University College London(UCL)科学修士課程最優等修了(MSc with distinction)。UCL visiting researcher、日本学術振興会特別研究員、東京大学特任研究員を経て、現在は米ハーバード大学医学部講師、マサチューセッツ総合病院研究員、SBI大学院大学客員教授など。専門はメディカルデータサイエンス。 2. 杉野 智啓 防衛医科大学校卒(MD)。大学病院、米メリーランド州対テロ救助部隊を経て、現在は都内市中病院に勤務。専門は泌尿器科学、がん治療、バイオテロ傷病者の診断・治療、緩和ケアおよび訪問診療。泌尿器科専門医、日本体育協会認定スポーツドクター。
RELATED ARTICLES

最新記事

注目の記事