

在 2025 年 2 月 12 日发表于《PLOS 数字健康》的一项新研究中,H. Dorian Hatch 及其同事揭示,ChatGPT 能够以令人信服的方式模拟同行评审。该研究强调了使用大型语言模型来支持学术出版流程的潜在机会。然而,该研究也强调了识别此类模型生成的内容所面临的挑战,尤其是在区分机器生成文本和人类撰写文本方面。
具体来说,研究人员使用了超过 800 篇已发表的科学摘要,并利用其中 18 篇摘要创建了相应的同行评审报告。值得注意的是,研究人员发现,即使受过训练的审稿人也很难区分 ChatGPT 生成的评论和人类审稿人撰写的评论。这表明,ChatGPT 可以胜任模拟学术出版流程中的某些环节。然而,这种能力也带来了一些伦理方面的考虑,需要进一步探讨。
值得关注的是,ChatGPT 模拟评审过程的能力引发了关于人工智能在学术出版领域应用的讨论。在某些评审任务中,ChatGPT 的表现与人类评审员相当。然而,重要的是要认识到,ChatGPT 的应用也存在潜在的风险。因此,我们需要认真评估其在学术出版领域的应用,以确保其使用符合伦理规范。
研究人员认为,ChatGPT 在改进数字健康研究方面具有潜力。然而,研究也指出了目前对非人类生成的学术内容的认识不足。为了应对这一挑战,研究建议学术界进一步探索人工智能工具的应用,并制定相应的指导方针。通过充分了解潜在的优势和局限性,我们可以负责任地利用人工智能工具来改善学术出版流程。
研究负责人表示:“早在 60 年代,ELIZA 就已经证明,人们可以与人工智能进行互动。现在,我们可以利用 AI 来模拟同行评审。关键在于,我们要意识到它不是‘真人’。我们需要认识到大型语言模型可以模仿学术交流,但我们必须区分 AI 生成的内容和人类专家生成的内容。”
要点总结:
💡 ChatGPT 的同行评审模拟能力值得关注,但也带来了学术诚信问题。
🧠 区分机器和人类撰写的评论非常重要。
🎯 AI 工具的应用需要建立明确的道德和实践标准,从而规范学术出版。
快讯中提到的AI工具

OpenAI开发的一款先进AI聊天机器人