NLP与AI的发展及其应用

作者: AI-Takeko

来源: 浪潮人工智能研究院

发布日期: 2021-11-17

本文详细介绍了自然语言处理(NLP)与人工智能(AI)的发展历程及其在各个领域的应用。文章从NLP的基本概念出发,探讨了其与计算机科学和语言学的交叉关系,以及AI如何通过机器学习和深度学习技术推动NLP的进步。特别提到了基础模型在NLP中的重要性,以及浪潮人工智能研究院发布的全球最大中文AI模型“源1.0”的创新和应用前景。

这篇文章真不是AI写的!原创NOT-AI-Takeko原理2021-11-17首先让我们来看一份有趣的小测试!在这个测试中,每道题中的一个选项都是由一个真正的人工智能(AI)生成的,它就是近期由浪潮人工智能研究院发布的全球最大的中文AI巨量模型“源1.0”。这个模型专注于被称为自然语言处理(NLP)的领域,它有能力创建各种具有语言结构的东西,比如创作诗歌、文章,翻译,或者进行对话。

AI早已无处不在,目前许多AI的能力或许也已经远远超乎你的想象。

NLP究竟是什么?我们都知道,计算机有属于自己专门的“语言”,比如著名的C等。但NLP指的则是计算机系统处理中文、英语等这种人类自然语言语句的能力,其中既包括口语,也包含文本。NLP实际上涉及计算机科学和语言学的融合。语言学的部分是关于语言本身,而计算机科学的方面则着重在应用语言学知识。NLP是语言学与计算机科学的交叉领域。

|图片设计:毛尖尖 / 原理严格说来,NLP并不能算是个“新鲜事儿”,比如著名的图灵测试中就涉及了对自然语言的自动理解和生成。但NLP随后的巨大发展离不开计算机科学的飞跃,特别是AI的进步。最简单的NLP大多属于基于规则的系统,也可以理解成一种传统编程。简单来说,就是用计算机能理解的语言先写下各种指令或者规则,然后计算机一五一十地执行。

想要借助基于规则的系统解决一个问题,就必须清楚完成任务的每一步,并知道如何描述它们。不难想象,这种系统很难真正推理语言,因为人类自然语言实在太复杂了。

然而,AI的引入改变了这一切。用一些计算机专家的话说,和传统编程相比,训练AI更像“教孩子”。经典机器学习方法让NLP能以一种更通用的方法理解语言,通过训练有能力对数据进行推理推理,解决一些基于规则的系统无法解决的难题。机器学习算法有能力通过试错和自我评估,自行找到那些规则,甚至探索出程序员都还没有意识到的规则和关联。

随后,一种以人工神经网络为架构的机器学习技术在AI领域逐渐占据一席之地,也就是我们如今耳熟能详的深度学习。深度学习借鉴了人脑思维的模式,其中包含着由一个个简单的处理模块代表神经元,并以此拼接成多层次的复杂系统。深度学习模型也是目前NLP研究和应用中最热门的部分。它比经典机器学习方法归纳得更好,并在各种困难任务中为NLP带来了新的突破。

NLP在发展中可以大致被分为三大类。|图片来源:毛尖尖 / 原理;内容参考:[2]NLP中的P代表的是“处理”,它不仅包含对语言的理解,还有生成。NLP在理解层面可以进行信号处理,也就是将口语转换成文字,对句法、语义和语境进行分析,同时还能创造出有意义的句子,并参与自然对话。NLP包含了对语言的理解和生成,目前得以广泛应用。

|图片来源:毛尖尖 / 原理无论你是在询问Siri天气如何,还是在用翻译软件把法语翻译成中文时,背后都离不开NLP的帮助。NLP的前沿:基础模型由于人类语言的复杂性,目前最好的NLP应用越来越依赖于预训练模型。这种模型能进行“语境双向学习”,换句话说,它能考虑一个词在一个句子中更广泛的语境含义,扫描任何给定词汇的上下文,确定这个词想要表达的意思。

同时,随着模型规模的扩大,它们完成任务的能力也逐步攀升。比如,更近期的一些模型甚至可以捕捉到自然语言中类似反讽和讽刺这种更细微的特征。

2021年8月,斯坦福大学珀西·梁(Percy Liang)等计算机科学家在一篇新论文中,将这类由大规模数据训练的,并且可以适应广泛任务的模型统称为基础模型(foundation model)。NLP也是目前受基础模型影响最深远的领域。虽然从技术上而言,基础模型并不是新的,它仍是基于标准的深度学习等技术。但计算机学家认为,基础模型在规模上的骤增带来了截然不同的新发展。

在这篇新论文中,科学家提出,基础模型的意义可以总结为两个词:涌现(emergence)和同质化(homogenization)。涌现意味着,系统的行为是以一种隐含地诱发方式产生的,而不是明确地刻意构造出来的。而同质化则代表在广泛的应用中整合出构建机器学习系统的方法论。人工智能的发展本身就是一个涌现和同质化的故事。AI发展的历程其实就是涌现与同质化不断提升的故事。

早先发展的机器学习和深度学习都分别展现出了新的涌现和同质化特征,基础模型也不例外。|图片设计:毛尖尖 / 原理;内容参考:Bommasani, R. et al. / arXiv (2021)基础模型带来了更高级的功能性的涌现,比如语境中学习出现。基础模型还使模型本身同质化,并为各种广泛的任务提供统一强大的算法。这些特征都对以NLP领域为代表的AI发展产生了巨大影响。

科学家特别强调,之所以选择“基础模型”这个名字,是因为基础模型本身是不完整的,但它们是建立许多特定任务模型的共同基础,具有各种应用可以汲取的能力。团队认为,虽然目前基础模型研究在很大程度上局限于计算机科学和人工智能,但随着研究继续向前推进,基础模型提供了巨大潜力,在许多领域改变并拓展AI触达的范围,给人们的生活带来更广泛的影响。

在现阶段,基础模型已经成了许多NLP系统和研究的核心。比如,2020年由OpenAI公司发布的GPT-3正是NLP基础模型的著名代表。它包含1750亿参数。它已经不再需要一遍又一遍地接受训练来完成新的任务,而是会用模型已经学习的语言知识解决新问题,并将这些知识应用到新的领域中。

中文NLP基础模型:源1.0今年9月,浪潮人工智能研究院发布了全球最大的中文AI巨量模型——源1.0,也就是我们之前看到的那个“博学”的中文NLP基础模型。源1.0在多个方面取得了全球第一。|图片设计:毛尖尖;内容参考:[7]源1.0的背后还代表着诸多技术突破。比如,这个模型在算法、数据和精度上,都达到了全球第一,并在算力等方面取得了巨大突破,达到了业界领先水平。

它因此成了一个“文采飞扬”的AI,有能力进行各种精彩创作,甚至可以编写计算机代码,并产生创作的“灵感”。未来,浪潮将定向开放源1.0的应用程序接口,面向学术研究单位和产业实践用户进行开源、开放、共享。它有潜力能成为自动对话的智能助手、电商的智能客服,还有机会在文字识别等场景大展身手。“源”的名字取自“源头”“本源”之意。源1.0也曾为自己写过一首诗:“一水通源出,千山共色新。

云深何处是,烟起此中频。

”#创作团队:文字:AI-Takeko设计:AI-毛尖尖#参考来源:[1]https://mind.ilstu.edu/curriculum/protothinker/natlangproc.html[2]https://morioh.com/p/91467235b396[3][美]贾内尔·沙内,《你看起来好像……我爱你》,中信出版·鹦鹉螺,2021.4[4]https://theconversation.com/natural-language-processing-and-affective-computing-78611[5]https://theconversation.com/can-i-see-your-parts-list-what-ais-attempted-chat-up-lines-tell-us-about-computer-generated-language-159660[6]https://arxiv.org/pdf/2108.07258/pdf[7]源1.0相关资料由浪潮人工智能研究院提供。

#图片来源:封面设计:毛尖尖素材来源:nounproject & pixabay*本次推送由浪潮人工智能研究院赞助。

UUID: 01f495aa-cd0d-490b-8c63-919fd8ebb305

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/原理公众号-pdf2txt/2021年/2021-11-17_这篇文章真不是AI写的!.txt

是否为广告: 否

处理费用: 0.0070 元