26秒 vs 51分钟,AI又要抢律师的饭碗了?

来源: 果壳

发布日期: 2018-03-12

在这场巅峰对决中,20名经验老道的美国律师被AI击败,AI在审阅保密合同的速度和准确率上均超过人类律师。LawGeex的AI使用深度学习技术,能够理解法律文书的含义,分析其中的概念,解决了传统算法无法处理的关键词省略问题。尽管AI在法律领域的应用前景广阔,但也面临着准确性和偏见等挑战。

4个小时,5篇保密合同,30个法律问题。在这场巅峰对决中,人类与AI谁会略胜一筹?20名经验老道的美国律师被AI击败了!好消息是,这不是在法庭辩论上输给了AI。坏消息是,输掉的这个领域是大量律师工作的核心。创造出这个AI的公司叫LawGeex(Law、Geek和Logic的合成词),这家2014年才成立的公司其目标是制造出能审阅法律文书的AI。这次比赛涉及的文书,是保密合同。

AI与人类的竞赛保密合同是在企业之间签署的合作协议。审阅和批准这类协议是企业法务人员日常工作的一部分。但是企业面临着人力资源短缺和工作量增加的双重困扰,一份合同的审批可能会要一周时间,这拖累了企业的效率。和目前大部分使用的AI一样,LawGeex的AI使用的也是深度学习技术。但是处理法律问题,AI仍会遇到独特的挑战。虽然法律文书也是用人类语言写成的,但是法律用词和我们日常用词的意思有很大差异。

LawGeex的报告中提到,开发者无法使用现成的自然语言处理技术,只能另起炉灶。此外,处理法务的AI需要极高的准确度,任何错误都有可能给企业带来风险,造成经济损失。相比而言,判断一部佚名的戏剧是不是莎士比亚写的,风险要小很多。这些都是技术难点。

LawGeex的AI有个非常重要的特点,它能够理解文字的意思,分析其中的概念。

这个功能是靠内置的法律语言处理(Legal Language Processing, LLP)和法律语言理解(Legal Language Understanding, LLU)模块实现的。早先的算法是搜索和匹配关键词,如果关键词被省略了,算法就无能为力了。对于LawGeex的AI来说即便文字中个别词语不出现也没问题,因为它理解了含义。

比赛的流程是这样的:在4个小时的时间里,21名参赛选手要各自分析5篇保密合同,定位出30个法律问题出现在合同中的什么地方。为了确保比赛的公正性,一群顶尖律师组成的裁判团选出了这5份合同,并制定了这30道题目。这些题目涵盖了这类协议中可能出现的各类法律问题。这不是仅仅靠搜索文字就能轻松完成的任务,而是要正确理解合同的内容。

参赛的21名选手中人类组20人,这些法律行业的精英有些是自由职业者,有些在著名律师事务所工作,有些是大公司的法务,一些人有在高盛、思科等大公司工作的经验。虽然以前也有AI和律师之战,但是之前的比赛不是在同等难度下进行的。而这次的比赛比的是律师工作的核心——理解合同的条款,判断合同的风险。那最终结果如何?准确率:AI能达到平均94%的准确率。律师的最好成绩是85%的准确率。

速度:AI用时26秒人类最快需要51分钟AI完胜!

律师真的要被AI取代了吗?在谈论AI抢走人的饭碗这个极富争议的话题时,我们总是一遍又一遍听到同样的声音——那些低技能重复性劳动会被AI替代。实际上据一些商业分析公司的研究,高回报的脑力密集型职业比如财务经理,物理学家,甚至是CEO都极有可能被AI取代。一些餐厅已经出现了AI服务员。

拿律师来说,站在法庭上唇枪舌剑的律师们可能暂时没有这个风险。

那些在律所中的顶级律师们似乎也不必担忧,他们最重要的工作是帮重要客户解答法律问题,有了LawGeex AI这样的工具反倒是解放他们的生产力。风险最高的是律师助理,他们才刚进入这个行业,做的都是低附加值的法律文书审阅工作。已经有公司在使用LawGeex的技术了,我们可以在LawGeex的网站首页上看到几家著名律所和会计公司的名字。

当文书工作交由更加高效的机器来处理,行业的整个工作流程会发生巨大变化,律师助理的职责也会被重新定义。比无纸化办公更厉害的,可能是无人化办公了。

不过在用AI代替律师之前还有几个问题要问。人工智能犯错了怎么办?犯错了就会给企业带来风险,如果未来用于刑法问题的AI出现,就更不能犯错了。那么如何判断它犯错了呢?AI犯错怎么办?这并不仅仅是法律AI的问题,也是所有AI共同面对的问题。

谷歌的AI就犯过一个错误,2015年谷歌图片App将一位黑人的照片识别成大猩猩,2018年初有好事的媒体又测试了一次,发现谷歌并没有修复这个问题,只是单方面屏蔽了几个敏感的关键词,似乎这个问题修复起来非常复杂。AI也有犯错的时候,谷歌图片App将一位黑人的照片识别成大猩猩,引起轩然大波。

同样也是谷歌,有研究机构发现,不同性别的人用谷歌搜工作会得到有偏向性的结果。女性搜到的高收入工作比男性少。

这类问题指向了AI算法的一个核心问题——偏见(Bias)。偏见的来源有两种,一个是设计程序的人,一个是用于训练AI的数据。以前只是知道AI带有偏见所以会得到错误的结果,但没有讨论偏见的来源,而一种新观点认为偏见来源于设计者,AI只是放大了设计者偏见。AI被越多的人越多的场景使用,它的偏见就会扩散开来。

想象一下带有偏见的法律AI被扩散开来就让人不寒而栗。所以需要有监管机构或者第三方公司来测试和监控AI,至少要能识别出这些风险,能够去补救它。不过话说回来,LawGeex的AI既然这么好用,财富500强企业估计已经等不及了吧?

UUID: 477405ab-d036-4b0a-91f3-5e42a9c05143

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/果壳公众号-pdf2txt/2018/2018-03-12_26秒vs51分钟,AI又要抢律师的饭碗了?.txt

是否为广告: 否

处理费用: 0.0049 元