毫无疑问,人类有自己的意识。在某种意义上,这种「意识」甚至可以被视为人类智能的内涵之一。随着「人工智能」(Artificial Intelligence)的深入发展,「AI能否拥有意识」也渐渐成为科学家们心中的一个疑问,「意识」也被视为衡量AI是否智能的标准之一。
例如,2月中旬,OpenAI的首席科学家IIya Sutskever就曾在推特上发起对AI意识的讨论。
当时,他说:如今的大型神经网络可能已初具意识。他的观点立即引起了一众AI大咖的讨论。针对IIya Sutskever的见解,图灵奖得主、Meta AI首席科学家Yann LeCun首先就抛出了反对意见,给出一个直截了当的观点:「Nope.」(不。)Judea Pearl也力挺Lecun,表示现有的深度神经网络还无法「深度理解」某些领域。
事实上我们都没有一个关于「意识」的正式定义。我们唯一能做的也许就是向历代研究意识的哲学家请教...这是一个关于源头的问题。如果需要讨论「AI意识」,那么:什么是「意识」?拥有「意识」意味着什么?要回答这些问题,光有计算机知识是远远不够的。
在她的最新博文《My mostly boring views about AI consciousness》中,Askell探讨了现象学意义上的「现象意识」(phenomenal consciousness),而非「自觉意识」(access consciousness)。现象意识强调主体的体验过程,侧重感觉、经验,被动注意;而自觉意识则强调主体的主观能动性,它强调主体在主观上的主动留意。
Askell提出一个有趣的观察:当下的AI系统比椅子更有可能具有现象意识,但远不如老鼠有意识,甚至还没有昆虫、鱼或双壳类动物有更多意识。她把AI系统大致类比为植物的区域——由于植物的行为方式似乎需要规划,并且可以做出一些看似需要内部和外部交流的事情。AI系统似乎也有类似的行为。
Askell列出了四个类型的证据:架构、行为、功能和理论。架构证据是指系统的物理结构与人类的相似程度,例如大脑的结构要远比指头的更加像有意识。行为证据是实体做出与意识、认知等相关的行为,例如可以意识到周围环境,对外部刺激的反应,或更复杂的行为,如言语和推理。
绝大多数AI从业者都不会将意识这一特性考虑进去,AI和意识似乎还只存在于某些科幻电影对未来的想象中。不过在安全、伦理、偏见与公正性方面,意识与AI的结合已在学术界和工业界中引起越来越多的重视。
Askell认为,AI具有现象意识,这就意味着它很有可能发展出伦理观,而这与它的创作者之间有莫大关系。尤其是当AI犯了错误或者受到「虐待」的时候,它的创造者应该承担一定的责任。
Askell指出,帮助一个群体并不需要以牺牲其他群体为代价。例如,食用素食对动物和人类健康都有好处。「团队通常不会竞争相同的资源,我们通常可以使用不同的资源来帮助两个团队,而不是强迫在它们之间进行权衡。如果我们想增加用于全球脱贫的资源,将现有的捐款从慈善事业中拿出来并不是唯一的选择——我们还可以鼓励更多的人捐款和捐款。」
目前AI领域专门针对意识(甚至其它哲学方面的思考)的研究非常少,但也已经有学者在针对该话题进行跨领域的合作研究。比如,GPT-3问世后,专注哲学问题探讨的博客Daily Nous就专门开辟了一个板块讨论语言哲学在AI上的思考。
但同时,Askell强调,对AI意识的讨论不应仅仅停留在哲学式的抽象思辨上,还要致力于发展相关的实用框架,比如为机器意识和感知建立一系列高效的评估。目前已经有一些方法可以用于检测动物疼痛,似乎可以从那里获得一些灵感。