言語モデルChatGPTを論文執筆に利用できる可能性(過去記事参照)について、多くの議論がなされている。米ニューヨーク州立大学などの研究者らは、ChatGPTを用いた論文捏造の実現可能性を検証し、この不正を特定する方法を調査している。
Patternsに掲載されたopinion論文では、ChatGPTで捏造した「2種類の関節リウマチ治療薬の有効性」に関する研究の抄録を、確立された3つのオンラインAI検出ツールでテストした。その結果、検出ツールは捏造された抄録をAIが生成したものと十分に認識でき、不正論文の提出を検知できる可能性が示された。一方、同じテキストを無料のオンラインツールにかけたところ「人間の可能性が高い」と示され、査読者・採択者側ではより優れたAI検出ツールの利用が必須と考察している。
従来の人為的な手法では、偽の研究結果でも信憑性を持たせるには膨大な労力を必要とし、単なる悪意で論文を捏造するのは負担に見合わなかった面もある。しかし、高機能な大規模言語モデルが作業を短時間で完了させることができる場合、恐ろしい結果をもたらす可能性が否定できない。著者らは医学研究が捏造される背景に、「悪意以外にも名声や資金獲得、キャリア形成に要する論文数といった多くのプレッシャー」を指摘している。また、米国医師免許試験(USMLE)のステップ1が合否判定型に制度変更されたことを受け、「野心的な学生が他者との差別化のため研究を捏造する動機となっていく可能性」についても言及している。
関連記事: