AI越来越强,但我们快要养不起了

作者: 环球科学

来源: 环球科学

发布日期: 2021-11-13

深度学习在多个领域展现了强大的能力,但其巨大的计算成本和经济、环境成本也在不断增加,可能超出人类社会的承受能力。研究人员正在探索减少计算负担的方法,如使用专门设计的处理器、更小的神经网络和元学习等,以期在不增加计算负担的前提下提高性能。

AI越来越强,但我们快要养不起了。2016年,“阿尔法狗(AlphaGo)”与李世石的围棋对决,让人工智能和深度学习进入了大众的视野。在那场人机大战中,阿尔法狗以总分4比1获胜。不仅围棋,深度学习近些年迅猛发展,在语言、医疗等多种领域展现出了强大的能力。

然而这一切是有代价的,为了降低错误率,深度学习在完成任务时需要越来越大的计算量,由此产生的经济成本、耗费的电量、对环境的污染,将超出人类社会的承受能力。人工智能普及的那一天,或许也将是人类能源被计算机消耗殆尽的那一天?

深度学习是人工智能领域长期发展的成果。早期的人工智能系统基于逻辑和人类专家给定的规则,之后渐渐引入了可以通过学习来调节的参数。而今,神经网络可以通过学习,构建可塑性很强的计算机模型。神经网络的输出不再是单一公式的结果,而是采用了极其复杂的运算。足够大的神经网络模型可以适应任何类型的数据。

深度学习已经在机器翻译领域大显身手。早期,翻译软件根据语法专家制定的规则进行翻译。在翻译乌尔都语、阿拉伯语、马来语等语言时,基于规则的方法起先优于基于统计学的深度学习方法。但是随着文本数据的增加,深度学习全面超越了其他方法。

巨大的计算成本是深度学习面临的严峻挑战。一个适用于所有统计学模型的规则是:要想使性能提高k倍,至少需要k2倍的数据来训练模型。又因为深度学习模型的过参数化,使性能提高k倍将需要至少k4倍的计算量。显然,为了提高深度学习模型的性能,科学家需要构建更大的模型,使用更多的数据训练。但是计算成本会变得多昂贵呢?是否会高到我们无法负担,并因此阻碍该领域的发展?

面对不断上升的经济和环境成本,深度学习领域迫切地需要在计算量可控的前提下,提高性能的方法。研究人员为此进行了大量研究。一种策略是,使用为深度学习专门设计的处理器。另一种减少计算负担的策略是,使用更小的神经网络。元学习有望降低深度学习训练成本。一些尚未发现或被低估的机器学习类型也可能降低计算量。

如果我们不能改变深度学习的方式,就必须面对这个领域进展缓慢的未来。我们期待一场算法或硬件的突破,让灵活而强大的深度学习模型能继续发展,并为我们所用。

UUID: 82fd0e11-c120-4a33-a0e7-6183c484ac32

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/科学大院公众号-pdf2txt/2021年/2021-11-13_AI越来越强,但我们快要养不起了.txt

是否为广告: 否

处理费用: 0.0047 元