近日,有网友发文称因ChatGPT为自己创作的童话故事《小野鸟》而备受感动。其他网友则在留言中表示,“不只我沉浸于跟ChatGPT聊天”“觉得它比人还明白你在哪个点需要被理解”“我也想要专属的《小野鸟》故事”……这些评论无疑都体现着人诉诸ChatGPT的情感需求。
比起针对ChatGPT技术变革性的广泛讨论,由它引发的对已有情感模式的挑战也不容忽视。从技术角度看,ChatGPT依然属于大语言模型的技术框架,而大语言模型技术的迭代从输出越来越准确向越来越像人类对话转化。与过往的自然语言处理系统相比,ChatGPT展现出了对问题前提的质疑、发现错误予以修正、通过信息猜测人的内心想法等新能力,这也让人工智能“懂你”成为可能。
可以想见,ChatGPT以及未来的生成式人工智能,将不再只是精准输出的“专家系统”,它们将不可避免地带有情感功能。理解能力是情感建立的基础。具有理解能力的ChatGPT,在交流中表现出“同理心”,即站在对方立场理解对方感受,并把这种理解传达给对方的一种沟通交流方式。是否具有同理心这一问题的评价是由交流中的另一方作出的,即个体在交流中是否感受到对方“理解我”。
因此,即便ChatGPT的同理心是一种“假象”,也并不影响其提供的情绪价值。也就是说,ChatGPT是否真的具有情感能力并不是问题的核心,它只要能够在语言交互过程中让个体感受到被理解即可,而理解催生信赖,信赖引发认同,这样的交流必然产生情感依赖。未来,以ChatGPT应用技术为蓝本,针对性的产品势必不断涌现,这无疑会重塑人类的交往方式与情感依存方式。
ChatGPT对个体情感性诉求的回应,势必成就一种全新的情感抚慰方式。我们可以畅想在不远的将来,ChatGPT的情感支持功能被合理利用。ChatGPT在情感支持方面可能有如下功能:第一,心理援助。当下,情绪问题与心理亚健康状况所带来的困扰亟待解决。在心理咨询领域,不同的技术流派使用各自的技术手段,但都强调共情是心理援助的基础。
相较于水平参差不齐、价格高昂的心理咨询师,ChatGPT可能是更好的倾听者。比起人类咨询师难以规避自身信念带来的偏见,ChatGPT能从求助者的信息中建构其自身,真正做到助人自助。第二,助老工具。随着社会老龄化加剧,如何让老人在相对稳定的社交关系和活动空间中活得更有尊严成为重要议题。对此,陪伴型机器人必将大有可为。
ChatGPT将提升陪伴机器人的陪伴质量,使老年人拥有真正的情感伙伴,产生更真实的情绪与情感价值。不过,有利就有弊,ChatGPT是否会创造一种“情感茧房”呢?正如算法推荐带来的信息茧房所造成的个体认知固化与观念极化,沉浸于ChatGPT定制的专属情感世界,势必引发精神依赖,使人逃避现实的情感交流,冲击现有的社交体系。
首先,基于理想算法与最新人类情感研究成果,ChatGPT将大大提升个体情感体验的阈值。人们将难以适应现实中需要磨合、包容的情感交往模式,使沟通与合作更加困难,给建立在情感基础之上的社会关系体系带来巨大冲击,导致新型情感真空与情感孤岛的产生。其次,ChatGPT所带来的巨大商机势必会加剧“情感茧房”的形成。市场对技术的灵敏嗅觉会让负载情感支持的产品不断涌现。
正像短视频吞噬我们的时间一样,为增加用户黏性,设计者将会无止境贴合用户需求,以提升用户对虚拟情感产品的依赖,形成对个体的情感围猎。再次,如果未来出现内置GPT-4以上迭代版本的新型机器人伴侣,那么可能会冲击已有家庭结构。美国技术史专家布莱恩·阿瑟曾指出,技术是按照组合方式进化的,之前的技术形式被作为现在原创技术的组分,即新技术产生于已有技术组合,以及(因之而来的)现存技术会带来未来技术。
目前,机器人技术日趋成熟,相应的材料技术也日新月异,加上ChatGPT的快速迭代,新的机器人情侣的出现已在路上。美国未来学家雷·库兹韦尔曾乐观地说:“我个人预言未来的机器将拥有自我意识(目前的研究显示ChatGPT可以通过图灵测试)。当它们说出自己的感受和感知经验,而我们相信它们所说的是真的时,它们就变成了有意识的‘人’。
对于这些非生物体,我会接受它们是有意识的实体,我预测这个社会也会达成共识,接受它们。”所有的文化史研究都证明人类的情感需求是刚需。据第七次全国人口普查数据,男性比女性多3490万人,是情侣机器人巨大的潜在需求市场。它将引发的伦理问题也是前人从来没有经历过的,也更难处理,比如人是否可以与情侣机器人结婚/离婚?是否存在虐待、遗弃(不论谁虐待谁)?
这些当下看似荒诞的问题未来都会出现,一旦它们拥有了意识,这些问题我们都绕不过去。哲学家温贝托·马图拉纳曾说:“与技术打交道的社会系统经常陷入‘结构漂移’中。人类的每一次巨大技术进步都带来了社会结构与秩序的重整,人类情感的复杂化只是其中很小的一部分而已。” 比起如何跳出“比你更了解你”的算法陷阱,逃脱“比你更爱你”的情感围猎更难,也更值得警惕!