当前的大型语言模型(LLM),是否像人类一样拥有“感觉”(sentience)能力呢?在知名人工智能学者、斯坦福大学计算机科学教授李飞飞看来,答案是否定的。日前,李飞飞与斯坦福大学哲学教授John Etchemendy在《时代》(Time)刊文称,当前的LLM不可能具有感觉。“所有的感觉——饥饿、疼痛、看见红色、坠入爱河——都是生理状态的结果,而LLM根本不具备这些生理状态。
”李飞飞认为,如果我们想在人工智能系统中重现这一现象,就需要更好地理解感觉是如何在拥有实体的生物系统中产生的。她还表示,我们还没有实现有感觉的人工智能,而更大的语言模型也无法实现这一目标。“我们在ChatGPT的下一次迭代中也不会偶然看到‘感觉’能力。”
不,现在的人工智能还没有意识。我们是这样知道的。
通用人工智能(AGI)是用来描述一种人工智能体的术语,这种人工智能体在人类展现(或能够展现)智能的所有方面至少与人类一样智能。人们之所以觉得有必要加上“G”,是因为由人工智能驱动的系统大量出现,但这些系统只专注于单一或极少数任务。现在,通用智能有点像一个神话,至少如果我们自诩拥有通用智能的话。
通用智能的基本特征之一是“感觉”(sentience),即拥有主观体验的能力——比如说,感受饥饿、品尝苹果或看到红色是什么感受。在通往通用智能的道路上,“感觉”是至关重要的一步。
为什么有些人认为人工智能已经有了感觉?在过去的几个月里,我和Etchemendy与人工智能领域的许多同行进行了激烈的辩论和对话,包括与一些最杰出、最具开拓性的人工智能科学家进行了一对一的深入交流。
人工智能是否已经具备了感觉能力一直是突出的一个话题。他们中的一小部分人坚信人工智能已经拥有了感觉。虽然这种说法乍听起来很有道理,但其实是错误的。因为我们的证据在两种情况下并不完全相同。甚至完全不一样。所有的感觉——饥饿、疼痛、看见红色、坠入爱河——都是生理状态的结果,而LLM根本不具备这些生理状态。因此,我们知道,LLM不可能对这些状态有主观体验。换句话说,它不可能有感觉。
我们还没有实现有感觉的人工智能,而更大的语言模型也无法实现这一目标。如果我们想在人工智能系统中重现这一现象,就需要更好地理解感觉是如何在拥有实体的生物系统中产生的。我们在ChatGPT的下一次迭代中也不会偶然看到“感觉”能力。