AI水的论文充斥学术期刊
研究发现数百篇AI改写的低质论文混入期刊,规避查重却毫无学术价值,引发出版界危机。
一场静悄悄的学术危机正在蔓延。研究人员发现,像ChatGPT和Gemini这样的文本生成工具,能够将现有论文改写成几乎一模一样的“复制版”,轻易通过查重检测,并堂而皇之地发表在学术期刊上。
在9月12日上传至medRxiv的预印本中,研究者揭示,过去四年半里,已有112本期刊刊登了400多篇这类论文。更令人担忧的是,这些文章大多出自所谓的“论文工厂”,它们利用公开的健康数据库,再借助大语言模型批量制造毫无价值的研究成果。
“如果放任这种方式蔓延,几乎所有开放数据库都可能被滥用,海量虚假的学术文章会像洪水一样涌入。”瑞士弗里堡大学的药理学家Csaba Szabó警告说,“那将是一个潘多拉魔盒被彻底打开的场景。”
为了调查真相,研究团队筛查了基于美国“国家健康与营养调查”(NHANES)的关联性研究。所谓“冗余研究”,指的是研究内容与已有论文几乎相同,只是换了样本年份、性别或年龄段,看似新鲜,实则重复。
结果显示,从2021年1月至2025年7月,共有411篇这样的重复论文出现在PubMed数据库里。多数只是两篇“孪生文章”,但有些变量和健康结果的关联甚至被写了六次之多,且部分在同一年就被反复发表。
“这根本不该发生,它正在污染学术文献的生态。”来自英国萨里大学的生物医学科学家Matt Spick直言。他怀疑正是AI工具在帮助一些研究者逃避期刊的防重复机制。
为了验证,研究者用ChatGPT和Gemini改写了三篇高度重复的文章。他们提供原文和NHANES数据作为输入,要求生成一篇看似全新的论文。结果令他们震惊:AI很快就生成了合格的稿件。虽然存在小错误,但只需两小时人工修订,就能达到可以投稿的水准。
更讽刺的是,当这些稿件被送入期刊常用的查重工具时,居然全部“安全通关”。Spick说:“这说明AI能生成一种完全没有新意的复制文本,却能轻松骗过检测系统。”这让真正依赖公共数据进行研究的学者们难以与“造假者”区分开来。
爱丁堡大学的全球公共卫生学者Igor Rudan表示:“这对编辑和出版商来说是全新的挑战。我们早在第一次测试大模型时就意识到它会成为问题,而现在证据确凿了。”
危机的苗头早已出现。就在今年7月,Spick和同事就警告,NHANES等开放数据库里充斥着低质量、公式化的论文,而AI正是推手之一。此次分析也发现,自2022年ChatGPT问世后,冗余论文数量明显激增。
一些出版商开始采取行动。位于瑞士洛桑的Frontiers和旧金山的PLOS,已收紧基于开放数据的研究投稿规则。Frontiers研究诚信负责人Elena Vicario承认,预印本中被点名的132篇论文确实出自他们的期刊,但那是在政策收紧之前,“如果现在投稿,这些文章根本不会被接受”。她透露,自5月新规生效以来,Frontiers已拒绝了1382篇基于NHANES的数据论文。
另一大出版商Springer Nature同样中招,被点名的论文占比最高,达到37%,其中《Scientific Reports》 alone 就刊登了51篇。编辑总监Richard White回应称:“我们非常严肃地看待学术记录的可靠性,所有被点名的论文都会接受调查,并采取必要措施。”他补充说,自2024年以来,《Scientific Reports》已拒绝了4500多篇基于NHANES的投稿。
White还表示,学界对于如何使用这类开放数据存在分歧。但出版商必须在“过滤掉毫无意义的研究”与“保留真正有价值的成果”之间保持平衡。他强调:“我们必须警惕数据被滥用,并持续采取行动。”
这场风暴不仅挑战了期刊的审稿与出版机制,也撼动了学术界的信任根基。真正的科学发现往往需要漫长的探索,而AI却能在几小时内制造出一篇“伪造成果”。问题是,学界能否在洪水般的复制论文彻底吞没之前,筑起坚固的防线?