“中华医学会”出新规,这种行为两年内禁止投稿

2024-01-11 19:56:24 - 市场资讯

转自:医学界网站

撰文| 汪航

继去年中国科学技术信息研究所发布《学术出版中AIGC使用边界指南》,对生成式人工智能在学术研究尤其是论文撰写进行规范后,日前,中华医学会杂志社也发布了相关规定。

1月10日,“中华医学杂志”发布《关于在论文写作和评审过程中使用生成人工智能技术的有关规定》,其中明确,如果论文主要内容是使用GenAI完成的,编辑部将按照学术不端行为进行处理。

这不是第一次针对AI论文造假进行规范。近一年来,包括《科学》《自然》等数以千计的期刊更新了编辑声明,对投稿人在论文写作过程中的各种AI使用途径,加以限制或完全禁止。

“中华医学会”出新规,这种行为两年内禁止投稿

AI写论文,中华医学会是如何规定?

ChatGPT的爆火使人们看到了其潜在风险与实际价值,对此,中华医学会在鼓励GenAI创新应用的同时,也注重引导合法、合理使用新技术。

去年12月21日,科技部监督司发布《负责任研究行为规范指引(2023)》,对医疗机构等科研主体提出了科学道德准则和学术研究规范,明确在研究项目申报环节,不得抄袭、买卖、代写申报材料,不得使用生成式人工智能直接生成申报材料。

“医学界”梳理发现,中华医学会最新发布的GenAI使用规则是上述指引政策的延续,可概括为“五可以、两禁止”。它并未“一刀切”地禁止使用GenAI,而是“在论文写作中的应用予以审慎推荐”,并且严格在约定边界内使用。

“五可以”是作者在论文写作中附条件使用GenAI的情况,包括:

GenAI可用于研究过程所需要的文献检索、选题思路、关键词推荐等启发式探索用途,但作者应对GenAI提供的信息进行核查,确认其所参考文献的真实性和可靠性,不得直接使用未经核实的由GenAI生成的参考文献。

GenAI可用于研究过程的统计分析,所分析的数据必须是作者在科研活动中产生或收集的真实数据,作者对所选择的建模和检验方法负责,并且作者应对GenAI统计分析结果进行其他途径的测试验证,确保统计结果的可靠性和准确性。

GenAI可用于论文的语言润色,不同语种的翻译,提升论文的可读性,作者可参考但不能直接照搬GenAI提供的写作风格,应保证论文具有个人或共同署名作者的写作特点。

GenAI可用于推荐合适的统计图表类型,辅助制图,但不能用于创建、改变或操纵原始研究数据、研究过程及结果等,包括但不限于数据图、病理图、电泳图、影像图、照片图、基因分析图谱、实验结果描记图、森林图、手术音视频等资料。

GenAI可用于参考文献格式的规范化检查、参考文献与正文对应的自动化排序、自动引用生成等方面。但对其他作者已标注为人工智能生成内容的不应作为原始文献引用,确需引用的应加以说明。

“两禁止”包括GenAI及其产品、团队不能作为论文的作者进行署名,以及GenAI不能用于整篇论文或论文重要部分的撰写(如研究方法、结果和对结果的解释分析等)。

如果论文出现违反上述规定的情况,中华医学会将直接退稿或撤稿;情节严重者,将列入作者学术失信名单,两年内禁止作者向中华医学会系列杂志投稿;如作者是期刊审稿人,同时禁止其参与审稿工作。

AI论文引发争论

自ChatGPT去年爆火以来,很多学者都将ChatGPT作为论文写作的重要工具,这一趋势也在学术界引发了一系列涉及原创性、学术诚信、伦理、法律等方面的争议和讨论。

一个较为典型的案例是,去年8月9日,某科学打假人在阅读期刊PhysicaScripta上的一篇SCI论文时,发现论文第三页中有一个奇怪的短语:RegenerateResponse(重新生成回复)。

用过ChatGPT的人可能都知道,“RegenerateResponse”一词是ChatGPT中的一个按钮标签(后更改为“Regenerate”)。当你对AI生成的回答不满意时,按下这个功能按钮,ChatGPT就会重新生成一个回答。

在PhysicaScripta期刊负责同行评审和研究诚信的负责人KimEggleton曾表示,该论文的作者后来向期刊承认,他们确实使用了ChatGPT来撰写论文手稿,“这种行为违反了我们的学术规范。”

值得注意的是,该论文从5月份提交到7月份修订版发布,在两个月的同行评审期间,也始终没人发现其中的问题。

令人担忧的是,这一现象并非个例。自去年4月至今,这名科学打假人已经发现了十几篇使用AI造假的论文,其中还有来自中国学者的文章,它们无一例外都留下了ChatGPT的使用痕迹。

除“RegenerateResponse”外,还有一些论文直接以AI作为主语,比如“AsanAIlanguagemodel,I…...”(作为人工智能语言模型,我……)。

这些反面案例表明,以ChatGPT为代表的GenAI可以生成虚假的研究过程或科学摘要、学术文献等,而这些内容足以欺骗期刊审稿人。

英国研究诚信办公室的研究诚信经理MattHodgkinson说:“如果作者删除ChatGPT的模式化短语,高级版本ChatGPT生成的流畅文本几乎不可能被发现。”

由于担心更多期刊出现内容缺陷,甚至是凭空捏造的虚假研究,越来越多期刊开始重视这一问题。2023年1月,英国《卫报》(TheGuardian)提出,“数以千计的科学期刊出版商已禁止或限制作者使用先进的AI聊天机器人提交论文。”

《科学》(Science)杂志主编HoldenThorp在一项事关编辑政策的更新说明中明确禁止使用来自ChatGPT生产的文本,并澄清该程序不能被列为作者。

出版近3000种期刊的施普林格·自然集团(Springer-Nature)在其指南更新中指出,ChatGPT不能被列为作者。但该工具以及其他类似工具仍然可以用于论文的前期准备工作,前提是要在手稿中披露使用细节。

《细胞》《柳叶刀》等杂志的出版商爱思唯尔(Elsevier)同样态度明确。相关负责人曾向媒体表示,其编辑指导方针中,允许使用AI工具以“提高论文的可读性和语言能力,但不能取代作者应该完成的关键内容,例如解释数据或得出科学结论”,该负责人还说,如果作者使用了AI工具,必须就使用详情作出具体说明。

来源:医学界

责编:田栋梁

编辑:赵  静

今日热搜