最近,包括埃隆·马斯克在内的千名专家联合签署公开信,呼吁暂停训练GPT-4后续AI模型至少6个月。消息一出,引爆全球网络和媒体,很快引来吴恩达等“AI大牛”的反对。如何看待双方的争论?我们一层层分析问题。
据公开信所称,提出“暂停ChatGPT研发”的提议,直接刺激是对“最近几个月人工智能实验室陷入了一场失控竞赛”的担忧。可实际上,短短几日争论,是往OpenAI公司和LLMs(Large Language Models,大语言模型)火上浇油,完成了又一波量子级别的免费推广。这波“操作”的宣传效应,继续扩大该领域领先公司的领先优势。
AI风险早就被学界指出,被各国政府所重视,近年来更是成为全社会的关注焦点。近十年来,从物联网到大数据、云计算、区块链、元宇宙、ChatGPT,一波波的AI热潮中,从来没有缺少关注风险的呼声。本人专业关注新科技社会冲击问题,花了大量精力提醒大家注意AI可能导致的技术风险。
然而,公开信指向的不是泛泛的AI风险,而是具体的、当下的LLMs风险。那么,就目前的发展态势而言,ChatGPT究竟存在什么严重的风险,必须以暂停至少六个月的方式加以应对呢?
仔细想一想,LLMs对中国社会最重要的冲击在于:1)失业问题:ChatGPT未来会威胁很多人的“饭碗”,进一步加剧“AI失业问题”,即AI的推广导致人们失业。
2)教育问题:ChatGPT对应试教育造成巨大挑战,要求中国的教育体制适应AI辅助工作和生活的未来社会环境。3)信息安全问题:ChatGPT很快生成海量的AIGC(计算机生成内容),其中不乏错误的、虚假的、有害的内容,威胁主流价值观、意识形态和健康的舆论思想环境。
暂停ChatGPT肯定不是应对风险的好办法。为什么?第一,暂停没有道理。有人说,ChatGPT风险应对措施没有想清楚,所以先暂停。错!
不是没想清楚,而是没有落实到位。第二,暂停是不可能真正实现的,肯定会有AI公司违反禁令,结果是出现不公平的竞争。第三,暂停解决不了问题。就算所有AI公司都真的暂停ChatGPT科研,风险问题就解决了吗?没有!除非彻底停止和取缔LLMs,否则风险不会消失。重新启动之时,仍然得直面风险。