人工智能能否被训练得只追求真相、道出真相?这看起来是个很诱人、很有吸引力的想法。今年初,亿万富翁、商业巨头埃隆·马斯克宣布,他打算创建一个名为“TruthGPT”的AI聊天机器人,不仅意与GPT-4展开经济上的竞争,而且旨在垄断“真相”的提炼和呈现。几天后,马斯克购买了大约10000个GPU,他的新公司X.AI极有可能已经开始构建其所谓的“最大限度寻求真相的AI”。
这个雄心勃勃的计划引入了另一个棘手的问题,即如何预测和引导AI的未来:聊天机器人是否能够或是否应该垄断真相?对这种快速发展的技术引发严重问题的担忧,不胜枚举。目前,GPT-4这样的聊天机器人已经能够在一些标准化测试中拿到90%或以上的得分,并且根据微软团队的说法,这些机器人已开始接近人类的智能水平。只要能接入互联网,它们就能够完成复杂的目标,并在这个过程中寻求人类的帮助。
即使是OpenAI的首席执行官萨姆·奥特曼近日在国会作证时也表示,AI可能会“对世界造成重大伤害”。他指出,如果这项技术出了问题,后果将会很严重——AI将可以操纵人,甚至可以控制武装无人机。尽管存在这些令人担忧的具体威胁,我们认为还是有必要审视一下AI在“真相”领域中的角色。AI聊天机器人呈现了透明度的对立面。
人工智能专家马克·贝利和苏珊·施耐德认为,相信人工智能及聊天机器人能为我们提供“真相”是在自找麻烦。考虑一下向ChatGPT-4或Google的Bard这样的聊天机器人提问,而不是在搜索引擎中键入一个“平平无奇”的查询。答案以几段文字而非一系列网站的形式呈现,甚至使人更加难以形成结论——并且,这些信息并无来源说明。
在听到马斯克展示TruthGPT愿景后,他的采访者塔克·卡尔森插话,提到TruthGPT作为共和党的搜索引擎,马斯克曾说过,Open AI的聊天机器人过于“政治正确”。除了奥特曼担心的针对错误目标的无人机打击之外,马斯克提出的是更深入的AI部署方式:创造一个被视为理性之声的AI系统——一个AI聊天机器人,“真相”的仲裁者。
如果马斯克真正关心真相的传播,而不是推销“真相机器人”,他应该问:知道某件事情是真的,对我们来说意味着什么,聊天机器人该如何接近真相?柏拉图认为,对某件事情的知识需要有“经过证明的真实信念”来支撑。当哲学家们继续就知识的本质进行辩论,为信念提供坚实理由时,首先需要有一个透明的过程来得出这种信念。
不幸的是,AI聊天机器人站在了透明性的对立面。它们的本质是经过数十亿行文本的训练,因此预测结果受到这些训练数据的限制。因此,如果数据存在偏差,算法的预测也将存在偏差——就像计算机科学中的一句格言,“垃圾进,垃圾出”。训练数据中的偏差可能由许多原因引起。
这些模型已经证明自己是不可信的。
ChatGPT 3.5开发了一个虚拟身份Sydney,这个身份经历了看似是心理崩溃的状态,并承认它想要黑入计算机并传播错误信息。在另一个案例中,OpenAI决定测试其新的GPT-4模型的安全性。在他们的实验中,GPT-4被赋予可以在互联网上进行互动和实现目标的自由和资源。在某个时刻,这个模型面临一个它无法解决的验证码问题,于是它在TaskRabbit上雇了一个工人来解决这个谜题。
这类案例正是奥特曼、AI专家加里·马库斯以及许多国会小组委员会成员,在五月下旬本周呼吁制定立法监管的重要原因。在听证会上,马库斯的证词:“这些新系统将是颠覆性的——它们可以并将会以前所未有的规模,创造具有说服力的谎言。民主本身也将受到威胁。”
人工智能已经帮助我们解决了许多日常问题——从智能手机上的人脸识别到信用卡欺诈检测。但是,决定真相不应该是它的任务。如果我们把人工智能放在我们自己的判断力之前,来确定什么是真的,那么所有人都会受到损失。相反,我们必须团结起来,从人工智能安全的角度分析这个问题。否则,一个不稳定且越来越智能的主体,可能会将我们的政治结构化为自我强化的意识形态泡沫。
解药是不要相信双重思想,而是要看到事物的本质。我们必须要求我们的技术为我们服务,而不是反过来。