用ChatGPT同行评议?美机构这样表态

作者: 辛雨

来源: 中国科学报

发布日期: 2023-07-18 08:01:40

美国国立卫生研究院(NIH)和其他资助机构对使用ChatGPT等AI工具进行同行评议表示反对,认为存在保密性和伦理问题。NIH已禁止这些工具用于分析和制定同行评议评论,并成立工作组研究如何适度使用AI。

今年4月初,美国匹兹堡大学神经学家Greg Siegle在一次会议上听到了他觉得“非常可怕”的事情。一位美国国立卫生研究院(NIH)的同行评议专家说,人工智能(AI)工具ChatGPT已成为他起草审查报告时不可或缺的工具,并表示使用ChatGPT可以节省大量时间,因为只需将提案的部分内容,如摘要、目标和研究策略等粘贴到AI中,然后要求其评估信息即可。

然而据《科学》报道,NIH和其他资助机构对这一做法表示反对。6月23日起,NIH禁止ChatGPT等在线生成AI工具用于“分析和制定同行评议评论”,澳大利亚研究委员会(ARC)也从7月7日起禁止使用AI生成同行评议。其他机构也在制定对策。NIH一位发言人说,他们已经成立了一个内部工作组,研究是否可以适度使用AI作为价值审查过程的一部分。

ChatGPT和其他大型语言模型利用庞大的信息数据库进行训练,以生成近乎人类编写的文本。这让一些科学出版商担心出现伦理问题和事实是否准确,并限制使用这些模型来撰写论文,包括《科学》在内的一些期刊也禁止审稿人使用它们。对于资助机构来说,保密性是最重要的。当提案的一部分被输入在线AI工具时,这些信息就成为其训练数据的一部分。NIH担心数据将被发送、保存、查看甚至使用。

批评人士还担心,AI撰写的评论容易出错,因为它们取材于现有信息,对非主流观点有偏见,且缺乏推动科学创新的创造力。NIH官员认为,他们所看重的原创性思想在这个过程中丧失,并且被同质化,这甚至可能构成剽窃。一名澳大利亚研究人员运营的匿名Twitter账户ARC_Tracker报告称,一些科学家收到的审稿意见似乎是由ChatGPT撰写的,有些人把部分论文粘贴到ChatGPT上,得到了类似的评价。

ARC_Tracker指出,有的科学家可能认为ChatGPT产生了有意义的反馈,但实际上并非如此。美国西北大学伦理学者Mohammad Hosseini认为NIH的禁令目前是合理的。“考虑到NIH处理的问题和项目的敏感性,以及AI工具的新颖性,采取谨慎的措施是有必要的。”然而,也有一些研究人员表示,AI提供了一个改善同行评议过程的机会。

美国爱荷华大学精神病遗传学家Jake Michaelson说,审稿人可以使用这些工具来检查他们的评论,看是否忽略了某些内容,以帮助他们评估自己领域之外的工作。随着时间的推移,形势可能会发生变化。几位科学家在NIH的博客上指出,一些生成式AI模型可以离线工作,并且不会违反保密原则。

UUID: f7ce56e5-c7cb-40d2-bbf7-bb78a6c7c4d7

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/中国科学报公众号-pdf2txt/2023/中国科学报_2023-07-18_用ChatGPT同行评议?美机构这样表态.txt

是否为广告: 否

处理费用: 0.0027 元