超级AI会偷袭人类吗?新研究给出答案

作者: 王方

来源: 中国科学报

发布日期: 2023-12-29 19:31:09

随着大型语言模型如ChatGPT的兴起,关于超级智能AI是否会突然出现并威胁人类的问题受到关注。最新研究指出,人工智能的智能增强是渐进的过程,而非突然的“涌现”现象,并强调了科学研究在预测和控制AI发展中的重要性。

一个人工智能的超级智能会突然出现吗,还是科学家能预见它的到来并来得及向全世界发出警报?随着大型语言模型,如ChatGPT的兴起,这个问题最近受到了很多关注。这些模型随着规模的增长已经获得了大量新功能。一些研究结果指向了“涌现”现象,即人工智能模型以一种骤然且不可预测的方式获得了智能。但最近一项研究将这种情况称为“海市蜃楼”,即系统测试过程中产生的假象,并认为创新能力的增强是循序渐进的。

研究人员近日在美国新奥尔良举行的神经信息处理系统大会(NeurIPS)机器学习会议上报告了这项工作。“我认为他们在说‘没有什么神奇的事情发生’方面做得很好。”谋智基金会研究人工智能审计的计算机科学家Deborah Raji说,这是“一个非常好的、坚实的、基于衡量的评估”。

人们通常使用大量文本或其他信息训练大型语言模型,并通过预测接下来发生什么生成现实的答案。即使没有受过明确的训练,它们也能翻译语言、解决数学问题、写诗或编写计算机代码。模型越大——有些模型的可调参数超过了1000亿,性能就越好。一些研究人员怀疑,这些工具最终将实现通用人工智能,从而在大多数任务中与人类匹敌,甚至超过人类。

这项新研究从几个方面检验了“涌现”的说法。在一种方法中,研究人员比较了人工智能公司OpenAI的4种规模的GPT-3模型的4位数相加的能力。从绝对精度来看,第三种和第四种模型的性能差异从接近0%到接近100%不等。但如果考虑答案中正确预测的数字数量,这种趋势就不那么极端了。研究人员还发现,可以通过给模型更多测试问题来抑制曲线。在这种情况下,规模较小的模型有时会作出正确的回答。

接下来,研究人员观察了谷歌公司的LaMDA语言模型在几个任务中的表现。那些表现出明显智能跃升的模型,比如在识别讽刺或翻译谚语方面,通常面对的是答案为对或错的多项选择任务。相反,当研究人员检查模型在每个答案上的概率时,“涌现”的迹象消失了。最后,研究人员转向了计算机视觉,这一领域“涌现”的说法较少。他们训练模型压缩然后重建图像。仅仅通过为正确性设定一个严格的阈值,他们就可以诱导明显的“涌现”现象。

新研究合作者、美国斯坦福大学计算机科学家Sanmi Koyejo表示,考虑到一些系统表现出突然的“相变”,人们接受“涌现”的想法并非没有道理。他还指出,这项研究不能在大型语言模型中完全排除这种可能性,更不用说在未来的系统中了。“迄今为止的科学研究有力地证明,语言模型的大多数方面确实是可预测的。”Koyejo补充道。

这项研究还对人工智能的安全和政策产生了影响。Raji说:“通用人工智能的支持者一直在利用新兴能力的说法。毫无根据的恐惧可能导致令人窒息的监管,或者转移人们对更紧迫风险的注意力。”“这些模型正在改进,且改进是有用的。”Raji说,“但它们还没有接近意识。”

UUID: 4531ed72-55d5-4c43-9b6c-f2a08a9eb341

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/中国科学报公众号-pdf2txt/2023/中国科学报_2023-12-29_超级AI会偷袭人类吗?新研究给出答案.txt

是否为广告: 否

处理费用: 0.0030 元