吴恩达对话杨立昆:为何不能暂停AI研发?

作者: 编辑:熊宇轩、李梦佳

来源: 智源社区

发布日期: 2023-04-08 18:16:39

吴恩达和杨立昆讨论了为何不应暂停AI研发,强调了AI的进步和潜在益处,同时指出了当前AI技术的局限性和对未来发展的乐观态度。

北京时间4月8日凌晨0:30,Yann LeCun(杨立昆)和吴恩达针对近期甚嚣尘上的「AI暂停」一事进行了一场深入讨论,讨论主题为「为何为期6个月的AI暂停是完全错误的」。在这场风波中,二人立场鲜明,明确表态反对暂停AI研发。汽车刚发明时没有安全带和交通信号灯,Yann LeCun认为,人工智能与先前的技术进步之间没有本质上的差异。智源社区对讨论核心观点进行了整理。

吴恩达在讨论中提到,在过去的10、20、30年间,我们见证了深度学习惊艳的效果。在近1-2年,人工智能系统进步的趋势甚至更快了,出现了ChatGPT、Stable Diffusion、DALL·E等系统。因此,一些人开始担心人工智能的公平性,以及它对社会经济、失业率的影响。还有些人甚至担心通用人工智能(AGI)会产生邪恶的机器人。这些对现在和未来的担忧是真实存在的。

为此,未来生命研究所(FLI)提出了一个暂停训练比GPT-4更强大的人工智能模型的公开信,Yoshua Bengio、Elon Musk等名人都联名签署了这份提案。

LeCun(杨立昆)认为,延缓研究和发展是一种腐朽倒退的思想。我们不应放缓知识和科学的进步。就产品而言,他支持监管产品,但并不认为监管研究和开发有什么意义,这反而会减少我们可以用来让技术更好、更安全的知识。

吴恩达进一步指出,人工智能系统确实面临着为人们带来损害的风险,例如:偏见、公平性、过于集中的能力。这些都是客观存在的问题。然而,AI也会创造巨大的价值!在过去十年、甚至数月间,大量的人工智能创意被用于教育、医疗等行业。即使我们如今有GPT-4这样好的模型,构建一个更好的模型会帮助这些应用更好的助人。中止这样的进步有害于创造这些对人类大有助益的工具。

LeCun表示,签署这封公开信的人可能有以下几个动机。极端地说,一些人会担心在某一刻实现了AGI,然后在短时间内消灭了人类。他认为很少有人真的相信这种情况,或者相信这是一个无法阻止的威胁。还有一些人的思考较为合理,他们认为需要应对AI的潜在危害。他赞同这一点。AI还存在很多问题,比如让AI系统可控,提供真实、无害的信息。但是这似乎有些缺乏想象力了,未来的人工智能系统不会按照「自回归」的方式设计。

我们会产生一些新的想法,使系统更加可控。因此问题就变成了如何为系统设计与人类价值观、政策一致的目标。

吴恩达和LeCun都认为,人工智能离人类水平的智能还很远。实际上,他们在过去的几年中已经多次讨论过这个问题,并认为目前的AI技术还远远没有达到能够威胁人类生存的水平。他们强调,应该继续推动AI为所有人创造普世的价值。

UUID: f8525b1d-2e78-4cca-8574-0198211a3e0f

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2023年/学术头条_2023-04-08「转」_吴恩达对话杨立昆:为何不能暂停AI研发?.txt

是否为广告: 否

处理费用: 0.0067 元