在当今的科学期刊和会议中,人工智能(AI)工具的参与已经成为了一种新常态。特别是大型语言模型(LLM)的使用,在全球学术界广泛传播。然而,这种趋势也引发了人们对科学论文质量和可信度的严重担忧。
学术界的AI渗透
几个月前,一篇论文在爱思唯尔旗下期刊中发表,其中的一句话暴露了LLM的痕迹。这一明显的低级错误,竟无人察觉,最终导致论文被发表。这引起了公众对学术出版界缺乏责任心的批评,以及对AI工具滥用的担忧。
AI工具生成的论文案例
以下是一些已经发表的科学论文,它们在不同程度上利用了AI工具,特别是[ChatGPT](https://ai-kit.cn/sites/1007.html):
-
案例一:一篇关于语言研究的社会科学论文,发表于沙特人文与社会科学杂志。论文中的“局限性”部分直接提到了ChatGPT的用语。
-
案例二:一篇关于肥料对土壤酶活动和指状小米产量影响的研究,发表于生物论坛 – 国际期刊。论文早摘要中就留下了ChatGPT的踪迹。
-
案例三:一篇大学生的研究论文,通过ChatGPT构思的电路图发表在仪器与创新科学杂志上。甚至连指导的副教授和教授,以及审稿人都没有发现。
-
案例四:一篇关于利用社交媒体推广COVID-19疫苗的研究,不仅标题尴尬,内容也多处未经编辑,直接使用了ChatGPT的话语。
-
案例五:巴基斯坦研究人员使用ChatGPT发表论文的案例,该论文发表在卡拉奇大学的学术期刊上,排版混乱且保留了ChatGPT的痕迹。
-
案例六:美国山景学院神学院的研究人员借助ChatGPT探索了基督的本质,这篇神学论文保留了原始的ChatGPT用语。
学术出版的挑战
这些案例只是使用AI工具生成的论文的一小部分。实际上,存在许多这样的低质量问题论文。通过这些案例,我们可以看到,一些研究人员利用AI工具生成内容的速度之快,以及一些指导老师和合著者对论文“配额”的关心,以至于忽视了论文质量。最终,这些论文通过了审稿过程,被发表出来,但几乎没有人会去阅读这些使用AI工具生成的文章。
学术界需要认真思考AI工具对科学论文质量和可信度的影响。同时,审稿人和期刊编辑也应该提高警惕,防止这种趋势进一步恶化。
参考资料
本文由微信公众号“新智元”(ID:AI_era)提供,由新智元编写。