早几年前,AI技术还处于理论阶段的时候,小编也和大家一样,对AI技术充满了各种美好的幻想。“改善生活、改变世界、制霸全宇宙,人类要从站起来变成强起来!”不过到现在要是再提AI的话,恐怕大家只能想到那些“抱歉,我听不懂,你能不能换个说法”的人工智障了。然而上周,科技圈子又重新因为AI技术沸腾了——因为美国研究组织“OpenAI”做成了一款被称为能取代人类的AI引擎。
在看完这款名叫“GPT-3”的语义AI引擎演示之后,小编的第一反应是,我该不是把书读到狗身上了吧。真正可以辅佐人类的AI终于来了!稍微熟悉点科技的朋友可能都听说过大名鼎鼎的“图灵测试”,也就是通过一连串的问答来看AI是不是会露馅。然而在人与GPT-3的问答中,假如不是我说,大家可能会以为对面坐着一个真实的小孩。回答略显稚嫩,但丝毫感觉不到以往AI助手们的那股制杖气息。
不过有小伙伴们可能要说了,这些问题也还好啊,我看之前你们介绍的那个谷歌助理虽然偶尔会犯制杖,但好像也能做个八九不离十。那接下来我们看点儿有难度的,能自己读题做题的AI见过吗?给GPT-3一篇高中英语阅读题,GPT-3轻轻松松就能给你把答案写出来。我当年学英语的时候有这种神器,那铁定是不会挂科的!(坏行为,好孩子勿模仿)要是嫌高中阅读难度不够的话,我们再来个大学水平的试试。
比方说,把一串晦涩难懂法律条款扔给GPT-3,不出五秒就能输出“人话”版本的解释文。学法律的小伙伴来评鉴一下。本硕博连读、头发都学秃掉的法学生们听到之后都哭了。这还不算完,除了听懂人话、归纳总结之外,GPT-3甚至还能自行创作。比如给个场景描述,给个开头,GPT-3就能写出个杀生丸和鲁鲁修的中二小短文。我瞬间就想到了小说代写,一日百更,彻夜不眠。
如果不满足于短篇的话,还有个老哥拿GPT-3生成了一篇1112词的鸡汤文。内容有点儿长,小编就不给大家全文翻译了。总之,这篇文章有开头、有结尾,有立意、有中心。文章引出了“创造性思考”和“过度思考”两种思考模式。文章还通过“作者”的切身经历,向我们阐述了过度思考的弊端,同时引导我们要进入到创造性思考的正向循环中,为生活创造更多价值。怎么样,这道阅读理解我能拿五分吗?
总之,这篇AI生成的鸡汤文非但没有露出马脚,还直接冲上了HackerNews的热搜榜首。看来歪果仁也很吃鸡汤这一套啊。讨论区里有几位老哥的表现甚至有些夸张:“这篇文章振聋发聩,跟前一阵伊森霍克的TED演讲有一拼!感谢楼主分享如此深度好文!”要是伊森霍克知道他的演讲被人和一篇AI生成的文章放到一起品评,不知道是该哭还是该笑。
伊森霍克最后是哭是笑小编不太清楚,因为此时我已经陷入了深深的沉思:要是AI再这么螺旋拐弯牛下去,我是不是就不用写稿失业了。。。别说,被这个问题困惑的可能不止我,律政精英、公司财务、程序开发,以及公司的油头UI设计师都在GPT-3的精确打击范围内。。。比如说有人把GPT-3和表格文件对接到了一起。
而我们只需要说类似“房租3000押一付三”、“老板上星期我打了一万块钱”一类的白话,GPT-3就能自动生成一张非常专业的财务报表。除了报表,GPT-3还能够只依靠几句话,就帮你撮一个网页出来。拥有十年工作经验的前端人员,哭了。“一个谷歌的Logo,一个搜索框,两个灰色的按钮,一个写‘谷歌搜索’,一个写‘手气不错’。”“把搜索框再改宽点儿。”“错啦。两个按钮之间要加一点间距,不要粘在一起。
”用一句话生成出个高仿Ins的界面也不在话下。甚至可以通过白话描述,直接用专业的SQL语言提取数据库资料。“拉取25-35岁员工的薪资详情”。震惊,程序员一夜之间化身产品经理,竟向电脑提出如此过分要求!哦我的上帝啊,这哪儿是什么AI啊。这可真是比小说里的小秘书、金手指、随身老爷爷还要神奇啊!先说明一下,以上这些神奇功能都是小编从拿到了GPT-3抢鲜体验资格的研究人员那看到的例子。
虽然小编也申请了GPT-3的体验资格,不过目前还在排队等待审核。等后续小编搞到了资格,我们再来好好看看我以后是不是可以拿它代笔了。然而光是从这些演示上看,我们已经可以发现这个GPT-3实在是强悍的不太像个AI了。所以,什么事AI都能干了,大家是不是混吃等死就好了?以后更不用去上学了?当然不是这样的。
虽然小编看到有些小伙伴在介绍GPT-3的时候用了类似这样的说法(顺便渲染了一波AI威胁论),但是实际上,这种猜测难以成立。因为从本质上来看,GPT-3属于AI理论中的“反应机”(React Machine),距离替代人类还远得很。现在大家通常把人工智分成四个层级:反应机(第一层)、有限记忆(第二层)、具有心智(第三层)、自我意识(第四层)。我们现实中最常见的AI都位于第一层的反应机。
比如我们常用的小爱同学、小度小度,以及这次的GPT-3。(GPT-3里的PT,实际代表的就是预先训练“Pre-Training”)它们通过“喂养”人工预先收集的大量样本进行学习训练,让AI对某件事情有了认知。之后再根据已有的样本组织反馈逻辑。这样的AI没有自我成长的能力,只能根据已学习的信息进行机械化的反应。
比如说,给AI灌输了一堆猫猫的侧面照片,AI下一次再看到一张新的猫猫侧面照时,大概率就能认出来这是一只猫了。但要是我这时候给AI一张猫猫的正面照,它就很可能把猫猫认成狗。说白了,反应机做的事情就是照猫画猫。但凡有哪只新猫长得和以前见过的差太多,就只能抓虾了。但可能有些小伙伴得说了,我们看前面GPT-3好像什么都能做,瞬间胜任了无数职业,怎么还会是把猫当成狗的反应机?小编,你这说法行不通啊。
非也,就像我前面提到的,反应机的原理是所谓的“照猫画猫”。那只要我们想办法把全天下所有的猫给它看一遍,它不就不会翻车了嘛!这正是GPT-3干的事。其实在它之前还有GPT-2,当时研究人员使用了100多亿个参数训练它,得出的结果已经让它站在世界顶尖AI的梯队里了。而这一次他们在训练GPT-3的时候,直接把训练参数增加了接近20多倍,达到了1750亿个参数,素材达到了45TB!
根据大家的测试结果看,除非你编一些根本不存在的问题给他,不然GPT-3的翻车概率几乎不存在。问:你怎么波哥个魔哥?答:你得用波哥来波哥个魔哥。问:引腰里有多少树?答:引腰里有三棵树。问:你知道我问的都是个些什么嘛?答:嗯,我知道。为了能够让AI跑的动1750亿个参数,赞助商微软直接给OpenAI划拨了一台世界排名前五的超级计算机。据说,光是里面装载的NVIDIA显卡和AI运算卡就接近上亿人民币。
史无前例的聪明AI,果然也得用史无前例的真金白银砸出来。不过饶是如此,哪怕GPT-3再聪明,它也只能糅合别人的创造,书写的别人的观点。脱离了训练使用的样本库,它便无法再输出创意,更没法自我学习。所以小编觉得,GPT-3(以及之后的AI)能像现在这样帮助人们高效输出一些解决方案,从某些繁杂琐碎的工作中解脱出来。但是它们永远无法替代人的思想。
And that's what makes us human。