AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署公开信

来源: 学术头条

发布日期: 2023-05-31 12:36:13

Geoffrey Hinton、Sam Altman等百名专家签署公开信,呼吁将降低AI灭绝人类的风险作为全球优先事项,与大流行病、核战争等风险同等对待。公开信发表在Center for AI Safety上,旨在讨论AI带来的广泛和紧迫的风险。

像核战争一样,AI可能灭绝人类。Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信,内容简单却有力:降低AI灭绝人类的风险,应该与大流行病、核战争等其他社会规模的⻛险一样,成为全球范围内的优先事项。该公开信发表在Center for AI Safety(CAIS)上。CAIS表示,这份简短的声明旨在就来⾃⼈⼯智能的⼴泛的重要和紧迫的⻛险这一主题展开讨论。

在这份联名公开信的人名列表中,有很多耳熟能详的名字,包括:图灵奖得主Geoffrey Hinton、Yoshua Bengio;OpenAI的CEO Sam Altman、首席科学家Ilya Sutskever、CTO Mira Murati;Google DeepMind的CEO Demis Hassabis、众多研究科学家;Anthropic CEO Dario Amodei;以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。

在一份相关的新闻稿中,CAIS表示,他们希望借此“设置护栏并建立机构,以便AI⻛险不会让我们措手不及”,并将对AI的警告比作“原子弹之父”J.Robert Oppenheimer对原子弹的潜在影响的警告。

然而,一些AI伦理学专家却不以为然。Hugging Face的机器学习研究科学家Sasha Luccioni博士将这一公开信比喻为“欺骗/迷惑公众的行为”(sleight of hand)。

她表示,将AI的假设性生存⻛险与大流行病和气候变化等非常实际的⻛险放在一起提及,这对公众来说是非常直观的,更容易让他们相信。但这也是一种误导,“将公众的注意力吸引到一件事(未来的⻛险)上,这样他们就不会想到另一件事(当前有形的⻛险,如偏⻅、法律问题)。”

一直以来,吴恩达(Andrew Ng)和杨⽴昆(Yann LeCun)都是AI技术的积极拥抱者。

在这封公开信发出后,吴恩达便在个人推特上发表了个人看法:当我想到人类大部分地区的生存⻛险时:下一个大流行病;气候变化→大规模的人口减少;另一颗小行星。AI将是我们解决方案的一个关键部分。因此,如果你想让人类在未来1000年生存和发展,让我们让人工智能走得更快,而不是更慢。

随后,杨⽴昆转发了这条推特并戏谑称,“在我们拥有即使是狗级别的AI(更不用说人类级别)的基本设计之前,讨论如何使其安全是不成熟的(想法)。”

自ChatGPT/GPT-4等AI大模型问世以来,一些AI安全研究人员开始担心,一个比人类聪明得多的超级智能AI很快就会出现,逃脱囚禁,并控制或消灭人类文明。

虽然这种所谓的长期⻛险在一些人的脑海中挥之不去,但其他人认为,就这一话题签署一封模糊的公开信,对于那些可能对其他AI⻛险(如deepfake)负有责任的企业而言是一种缓解方法。Luccioni认为,“这使得签署这封信的人成为故事的英雄,因为他们是创造这种技术的人。”

在Luccioni等批评者看来,AI技术并非无害,相反,他们认为优先考虑假设的未来威胁是对目前存在的AI⻛险的转移,这些危害带来了棘手的伦理问题,而销售AI工具的大公司宁愿选择忘记这些问题。因此,即使有一天AI可能会威胁到人类,但这些批评者认为,关注2023年的一个不明确的末日场景是没有建设性的,也没有帮助。他们指出,你不可能研究不真实的东西。“试图解决想象中的明天的问题,完全是浪费时间。

解决今天的问题,明天的问题将在我们到达那里时得到解决。”

UUID: 501e248a-3091-46bd-bfbe-a1198073a41e

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2023年/学术头条_2023-05-31_像核战争一样,AI可能灭绝人类:GeoffreyHinton、SamAltman等百名专家签署了一封公开信.txt

是否为广告: 否

处理费用: 0.0040 元