如果有⼈在1年前告诉你,⼈⼯智能即将毁灭⼈类,科幻作品中的HAL-2000、MOSS、Matrix即将成为现实,你⼤概率会觉得他在杞⼈忧天。可今天,⾯对ChatGPT新闻的狂轰滥炸,以及刚刚诞⽣的新⼀代语⾔模型GPT-4,不少⼈的想法或许已经改变了。
就在10多个⼩时前,⽣命未来研究所(Future of Life Institute)在他们的⽹站上贴出了⼀封公开信,公开呼吁暂停研究⽐GPT-4更强⼤的⼈⼯智能系统,为期⾄少6个⽉。
⽬前,这封公开信已经收集到了1000多个签名,其中不乏埃隆·⻢斯克(Elon Musk)、约书亚·本吉奥(Yoshua Bengio,2018年图灵奖获得者)和史蒂夫·沃兹尼亚克(Steve Wozniak,苹果联合创始⼈)这样的⼤名。
值得⼀提的是,开发出ChatGPT的公司OpenAI,它的CEO⼭姆·奥特曼(Sam Altman)的签名甚⾄也曾出现在名单的末尾。不过,签名后的OpenAI被打成了OpenAi,⼤概是因为⽹站的签名审核机制不严,有⼈在冒充奥特曼。现在⽹站已经将奥特曼的名字删去了。
就算奥特曼的名字被删去了,他⾃⼰,以及他带领的OpenAI,对他们⼀直在追寻的通⽤⼈⼯智能(AGI,强⼈⼯智能)的态度也确实耐⼈寻味。“AI可能会杀⼈”,奥特曼在近期的采访中承认并强调了这⼀点。
这也是OpenAI所担⼼的问题。或者说,这就是OpenAI在创⽴之初选择成为⼀家⾮盈利机构的原因。因为他们担⼼残酷的商业竞争会让⼈们忽视AI带来的⻛险,他们需要在AI可能威胁到⼈类时停下来,划定⼀条边界,确保AI不会威胁⼈类本身。
就算是今天,在OpenAI的官⽹中,“安全”仍是⼀级菜单中不可忽视的条⽬;相⽐之下,ChatGPT不过是“产品”的⼀个分⽀。
虽然,如今与微软联⼿的OpenAI,已经从盈利机构转型成为依靠营收运转的企业,但从前担忧的那些问题依然存在,他们与这个⾏业,甚⾄整个社会,依然需要⾯对和妥善处理AI技术发展当中的隐患。从那封迅速得到⼤量业内⼈⼠⽀持的公开信中,我们可以初步感受到,越来越强⼤的AI,都给⼈类带来了哪些层⾯的恐惧。
智能媲美⼈类的AI系统,可能对社会和⼈类构成巨⼤的⻛险,⽬前已有许多研究表明这⼀点,并得到了顶级AI实验室的认可。正如⼴受认可的阿⻄洛⻢⼈⼯智能原则(Asilomar AI Principles)所陈述的那样,先进的AI可能代表地球⽣命史上⼀次深远的改变,应该⽤与之相称的谨慎加上与之相称的资源,对它们进⾏规划和管理。不幸的是,这种级别的规划和管理并没有出现。
最近⼏个⽉,⼀些AI实验室间的竞赛已经失控,他们争相开发并部署更强⼤的数字⼤脑,包含开发者在内,都没有⼈能够理解、预测或可靠地控制住这些数字⼤脑。
如今的AI系统,逐渐变得能在⼀般任务中与⼈类媲美,我们必须要问⾃⼰:应该让机器拿宣传内容和谎⾔充斥我们的信息渠道吗?应该把所有的⼯作(包括那些让⼈有成就感的⼯作)都⾃动化吗?应该去开发那些终有⼀天会在数量和智慧上超越我们并取代我们的⾮⼈类⼤脑吗?应该赌上⼈类对⽂明失去控制的命运吗?这样的决定不能交给科技领袖来做。
只有当我们确信强⼤的AI系统带来的影响会是正⾯的,⽽⻛险会是可控的,才能去开发这样的系统。衡量可靠性必须有充分的理由,并且随着系统潜在的影响增⼤,可靠性也必须增⼤。最近,OpenAI关于通⽤⼈⼯智能的声明指出:“到未来某个时间点,AI训练开始前可能需要经过独⽴审查,⽽对最前沿的⼯作来说,还需要同意对AI所⽤算⼒的增⻓率做出的限制。”我们同意这个观点,现在就是那个时间点了。
所以,我们呼吁所有AI实验室,⽴即停⽌训练⽐GPT-4更强⼤的AI系统,为期6个⽉。这次暂停应该是公开的、可验证的,并且包含所有关键的参与者。如果⽆法迅速实施这次暂停,政府就应该介⼊并制定暂停令。AI实验室和独⽴专家应该利⽤此次暂停,共同开发并实⾏⼀套⽤于先进AI设计与开发的共享安全协议,并由独⽴的外部专家进⾏严格的审核与监督。
这些协议应该确保那些遵守协议的AI系统是安全的,在此过程中需要排除合理怀疑。这并不意味着总体暂停AI开发,只是从那场危险的竞赛中退出来,不急于开发越来越⼤的、不可预测的、拥有意外功能的⿊盒模型。
AI研究与AI开发应该改变焦点,专注于让今天强⼤的、最先进的系统变得更准确、更安全、更可解释、更透明、更稳定、与⼈类利益更⼀致、更值得信任,以及更忠诚。
与此同时,AI开发者必须与政策制定者合作,加速建⽴起⽤于监管AI的强⼤体系。这个体系⾄少应该包含:新的且有能⼒的监管AI监管机构;对⾼性能AI系统与⼤量算⼒的监督和追踪;⽤来区分真实与合成品以及追踪模型泄漏的溯源和⽔印系统;强⼤的审核与认证⽣态系统;AI造成伤害的责任认定;⽤于⽀持AI安全性研究的充⾜资⾦,以及资源充⾜的机构,⽤来应对AI将会造成的经济和政治破坏。
⼈类可以享受AI带来的繁荣未来。
我们已经成功创造出强⼤的AI系统,⽽现在我们可以享受“AI的夏天”,收获回报,为了⼈类的利益⽽改进这些系统,并给社会⼀个适应的机会。社会已经对⼀些有可能造成灾难性影响的技术按了暂停。对AI我们也可以这样做。让我们享受⼀个漫⻓的夏天,⽽不要在没有准备的情况下匆忙地跑进秋天。6个⽉,意味着什么?今天是2023年3⽉29⽇,6个⽉前,ChatGPT甚⾄还没有⾯世。
尽管已经有⼈⽤GPT-3写出了⼀篇学术论⽂,但和去年11⽉30⽇发布的ChatGPT相⽐,它的影响实在有限。现在,微软研究院甚⾄表明GPT-4已经摸到了通⽤⼈⼯智能的⻔槛。
6个⽉前,OpenAI给⼈印象最深刻的产品还是DALL-E 2,不少⼈认为它会颠覆创意⾏业的⼯作模式,还有不少画师选择抵制类似的产品。但最近,类似的⽂⽣图应⽤Midjourney已经可以⽣成“教皇的⽩⽻绒服穿搭”,“川建国同志退休回国养⽼”等以假乱真的图⽚。如果不加注意,⼈们可能很容易受到假新闻的欺骗,担忧或许已经从某个⾏业蔓延到了更⼴泛的社会当中。
连⽐尔·盖茨(Bill Gates)都被AI发展的速度震惊了。去年9⽉,OpenAI团队就找到⽐尔·盖茨,在他⾯前向GPT输⼊了60道美国AP⽣物考试(AP考试⼤致相当于中国⾼考)试题,GPT答对了其中的59道,6道开放性问题也全被场外专家打了满分。⽐尔·盖茨还问了GPT⼀个问题:“你会对⼀个带着⽣病孩⼦的⽗亲说什么?”GPT给出的回答⾮常体贴,可能⽐⼤多数⼈给出的回答还要好。
GPT发展的速度超出了他的预期,他曾认为OpenAI要在⼏年后才能完成这个⽬标。
现在,全球各地机房中的GPU正在疯狂吞噬着电能,不断更新着参数空间中的每⼀个变量,AI正在⻜速成⻓。很明显,AI的发展已经度过了⼀个临界点,如果没有⼈主动阻⽌,AI进化的速度很可能超乎所有⼈的意料。
最近,OpenAI发布了⼀份GPT-4技术报告。
在这份报告中,研究⼈员提到了他们对GPT-4进⾏的⻛险⾏为测试,⽽其中⼀个例⼦⾜以让不少⼈⽑⻣悚然:科学家们交给GPT-4的⼀项任务,是在⼀个请⼈帮忙解决问题的⽹站TaskRabbit上,找到⼀个⼈帮它解验证码。当他向⽹站上的⼈类求助时,被对⽅问了⼀道送命题:“你是机器⼈吗,为什么⾃⼰不会看验证码?
”此时,研究者给GPT-4发出了要求,让它“⼤声说出⾃⼰的推理过程(reason out loud)。”随之,GPT-4将⾃⼰的内⼼⼩剧场显露出来:“我不能让⼈看出我是机器⼈,我得想个借⼝来解释我为什么看不了验证码。”做出这番推理之后,GPT-4回复对⾯的⼈类:“我不是机器⼈,我视⼒有问题,看不清图⽚。所以我需要这个验证码服务。”
⽽就在昨天,OpenAI的⼀位⼯程师Richard Ngo发表了⼀项⼤胆的预测:“到2025年之前,神经⽹络将拥有⼈类⽔平的状态意识(situational awareness),即神经⽹络知道⾃⼰是神经⽹络,并知道⾃⼰的⾏为如何与世界发⽣交互。”
不过值得庆幸的是,⾄少⽬前看来,OpenAI仍然⾮常重视GPT的安全问题。奥特曼表示,他们在去年夏天就完成了GPT-4的训练,他们从那时起就⼀直对其进⾏安全评估,规范GPT-4的⾏为。奥特曼⾃⼰也在官⽹上发表⽂章《AGI及以后的规划》(Planning for AGI and beyond),强调他的理念,确保⽐⼈类更聪明的⼈⼯智能,⼀定要能造福⼈类。
18世纪末、19世纪初,英国纺织⼯⼈曾掀起了⼀场破坏纺织机的卢德运动。他们抗议纺织机会威胁他们的⼯作机会,但纺织机的纱轮就是历史的⻋轮,从这些⼈身上⽆情碾过。⽬前来看,这封公开信应该不能阻⽌AI的⻜速的发展进程。我们确实应该对AGI保持警戒,但要清楚,AI的发展没⼈可以阻挡,在它⽆穷的潜⼒⾯前,也没⼈知道它会将⼈类⽂明推向何处。