AI是否拥有意识?从意识的定义说起

作者: Antonio

来源: AI科技评论

发布日期: 2022-03-19 12:18:00

本文探讨了人工智能是否可能拥有意识的问题,讨论了意识的定义及其在AI智能衡量中的作用。文章引用了多位AI领域专家的观点,包括OpenAI和Meta AI的首席科学家,以及哲学家的见解,分析了AI可能具有的现象意识和自觉意识,并探讨了AI意识可能带来的伦理和道德问题。

毫无疑问,人类有自己的意识。在某种意义上,这种「意识」甚至可以被视为人类智能的内涵之一。随着「人工智能」(Artificial Intelligence)的深入发展,「AI能否拥有意识」也渐渐成为科学家们心中的一个疑问,「意识」也被视为衡量AI是否智能的标准之一。

例如,2月中旬,OpenAI的首席科学家IIya Sutskever就曾在推特上发起对AI意识的讨论。

当时,他说:如今的大型神经网络可能已初具意识。他的观点立即引起了一众AI大咖的讨论。针对IIya Sutskever的见解,图灵奖得主、Meta AI首席科学家Yann LeCun首先就抛出了反对意见,给出一个直截了当的观点:「Nope.」(不。)Judea Pearl也力挺Lecun,表示现有的深度神经网络还无法「深度理解」某些领域。

事实上我们都没有一个关于「意识」的正式定义。我们唯一能做的也许就是向历代研究意识的哲学家请教...这是一个关于源头的问题。如果需要讨论「AI意识」,那么:什么是「意识」?拥有「意识」意味着什么?要回答这些问题,光有计算机知识是远远不够的。

在她的最新博文《My mostly boring views about AI consciousness》中,Askell探讨了现象学意义上的「现象意识」(phenomenal consciousness),而非「自觉意识」(access consciousness)。现象意识强调主体的体验过程,侧重感觉、经验,被动注意;而自觉意识则强调主体的主观能动性,它强调主体在主观上的主动留意。

Askell提出一个有趣的观察:当下的AI系统比椅子更有可能具有现象意识,但远不如老鼠有意识,甚至还没有昆虫、鱼或双壳类动物有更多意识。她把AI系统大致类比为植物的区域——由于植物的行为方式似乎需要规划,并且可以做出一些看似需要内部和外部交流的事情。AI系统似乎也有类似的行为。

Askell列出了四个类型的证据:架构、行为、功能和理论。架构证据是指系统的物理结构与人类的相似程度,例如大脑的结构要远比指头的更加像有意识。行为证据是实体做出与意识、认知等相关的行为,例如可以意识到周围环境,对外部刺激的反应,或更复杂的行为,如言语和推理。

绝大多数AI从业者都不会将意识这一特性考虑进去,AI和意识似乎还只存在于某些科幻电影对未来的想象中。不过在安全、伦理、偏见与公正性方面,意识与AI的结合已在学术界和工业界中引起越来越多的重视。

Askell认为,AI具有现象意识,这就意味着它很有可能发展出伦理观,而这与它的创作者之间有莫大关系。尤其是当AI犯了错误或者受到「虐待」的时候,它的创造者应该承担一定的责任。

Askell指出,帮助一个群体并不需要以牺牲其他群体为代价。例如,食用素食对动物和人类健康都有好处。「团队通常不会竞争相同的资源,我们通常可以使用不同的资源来帮助两个团队,而不是强迫在它们之间进行权衡。如果我们想增加用于全球脱贫的资源,将现有的捐款从慈善事业中拿出来并不是唯一的选择——我们还可以鼓励更多的人捐款和捐款。」

目前AI领域专门针对意识(甚至其它哲学方面的思考)的研究非常少,但也已经有学者在针对该话题进行跨领域的合作研究。比如,GPT-3问世后,专注哲学问题探讨的博客Daily Nous就专门开辟了一个板块讨论语言哲学在AI上的思考。

但同时,Askell强调,对AI意识的讨论不应仅仅停留在哲学式的抽象思辨上,还要致力于发展相关的实用框架,比如为机器意识和感知建立一系列高效的评估。目前已经有一些方法可以用于检测动物疼痛,似乎可以从那里获得一些灵感。

UUID: e1b536cf-9c46-4877-bfd4-2460aa833e50

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2022年/学术头条_2022-03-19_AI 是否拥有意识?从意识的定义说起.txt

是否为广告: 否

处理费用: 0.0053 元