人工智能的技术进步与
大语言模型的发展探究
国信证券经济研究所所长 杨均明
各位朋友大家晚上好,我是国信证券经济研究所所长杨均明,今天我们TMT组的首席分析师和大家一起探讨人工智能浪潮下的投资机会,这是第一期,后续我们会根据市场和技术的进展不断推出相关内容。在分析师讨论以前,我先和大家一起回顾一下人工智能的技术进步和大语言模型的发展探究。
一、人工智能的技术进步
人工智能的研究始于上个世纪40年代,即所谓的图灵测试,人工智能的概念于1956年提出。随后AI研究逐渐兴起,涌现出许多关键技术,如专家系统、神经网络。近年来深度学习的突破性进展使得AI领域取得了重大成果,特别是在计算机视觉和自然语言领域等。通过几十年的发展取得了显著的进步。从早期的基于规则的系统,到现代深度学习模型,AI的研究逐渐转向更加智能和自适应的方法。
人工智能的快速发展得益于:
一是计算能力的提升:随着计算机硬件的快速发展,尤其是GPU、TPU等专用于AI的硬件的出现,计算能力的提升为AI发展奠定了坚实的基础,研究员能够运行更大更复杂的模型,处理更多的数据,这使得深度学习技术得以迅速发展,特别是为自然语言NLP领域带来了革命性的变化。
二是深度学习框架的出现:深度学习框架TensorFlow(TF)、PyTorch等的出现。降低了AI模型的开发难度,使得越来越多的研究者能够参与AI的研究。
三是算法进展:深度学习技术的突破,尤其是卷积神经(CNN)、循环神经网络(RNN)和Transformer等网络结构的出现,极大地提升了AI各个领域的性能。预训练与微调的策略也让模型更易于适应不同的任务。
四是数据资源的丰富:随着互联网的普及,大量的文本、图像、声音等数据变得容易获取。这为AI技术的发展提供了数据资源,有助于训练更强大的模型。
有些人把机器人工智能分成感知智能、计算智能、认知智能三个层级,这个和人类的认知是类似的,现在大家讨论的人工智能主要是指认知智能,它的发展经历了三个阶段:
一是(2012年--2018年)第一次发展,2012年AlexNet模型的出现开启了卷积神经CNN在图像识别领域的应用,2015年它对图像的识别超过了人类,从而催生了计算机视觉在这个行业的大应用。
二是(2017年-去年11月):2017年Google Brain团队提出Transformer架构,奠定了大模型领域的主流算法基础,从2018年开始大模型迅速流行,像谷歌推出的BERT模型、T5模型,OPenAI推出的GPT模型。通过大参数和大量数据“预训练+微调”的大模型有效解决了1.0时代AI泛化能力不足的问题。
三是随着OpenAI推出GPT3.0,3.5,4.0产品,特别是GPT4.0多模态产品的推出,以及GPT对外推出应用插件和开放网络浏览器和代码解释器,Chat-GPT不仅只是和人类互动的聊天机器,还连接上了整个互联网、软件生态,可以预见的是整个AI应用层将会大爆发。
二、大语言模型的发展探究
很多人迷惑为什么人工智能会扯上大语言模型,这里的大指的是用了很多参数,语言模型指的是处理自然语言(NLP)的模型。
GPT则是由OpenAI公司推出的的系列大语言模型,全称是(Generative Pre-trained Ttansformer)生成式预训练转换模型,首先是G就是生成,就是这个系统可以生成内容,P就是预训练,指的是这个系统通过了大量数据的喂养和反馈训练,T表面意义是转换,把人的语言转换成机器理解的代码,再生成转化成人可以理解的语言。
那到底为什么要研究和理解自然语言系统(NLP)呢?这要从生命的起源说起。在生命诞生以前,宇宙是混沌的。随着生命的出现,对外界有了感应,随着物种的进化,生命可以通过不同的感官去感知到不同的外界。那个混沌的世界就坍塌了,如庄子所言,你给混沌按上了五官后,混沌就死了,世界变成了你感知到的世界。到这里为止人对世界的感知或者说智慧,和其他动物不会有明显的区别。
人类文明的飞跃来自于与7万年前,我们的祖先掌握了语言,从而变成了地球的主人。在一万年前创造了文字,从而变成了自己的主人。语言和文字的意义在于,人类开始用它开进行思考,去想象和构建未来,从而创造未来。反过来语言和文字重新定义和规范了人类的行为。
所以人类的智慧主要就是藏在语言文字里面,是人类的语言和文字构建起了现在的世界。人工智能(讲的是人类的智能),它的爆发点一定是基于语言文字系统的认知、解构和重组。
人类一旦解构了自然语言系统,让计算机可以认知并重组,并重新生成让人可以理解的自然语言,就可以爆发出惊人的力量,它产生的智力一定可以大大超出一般人的能力。首先每个个体所学到的东西和计算机训练的数据相比是微不足道的;其次是人有天生的局限,每个人都是站在自己的立场去思考问题的,是以自我为中心去观察世界的;再次,每个人的认知受到哥德尔完备不一致定理的约束,自己无法认知到自己的局限性。当然计算机模型也会受到一样的局限,比如模型的可解释性。
大型语言模型的发展经历了几个阶段,涉及到很多关键的技术和方法,语言模型上的研究做了大量艰苦卓绝的工作,以下是一些主要阶段和进展:
词嵌入:在大型语言模型发展的早期阶段,词嵌入技术如Word2Vec和GloVe出现,它们能够将词汇映射到连续的向量空间,捕捉词汇间的语义关系。
循环神经网络(RNN)与长短时记忆网络(LSTM);随着循环神经网络(RNN)的引入,模型可以处理边长的序列数据。特别时长短时记忆网络(LSTM)的发明,有效解决了RNN在处理长序列时的梯度消失和爆炸的问题。
Transformer架构,谷歌2017年提出了Transformer架构,它通过自注意力机制(Self-Attention)实现了更高效的长距离依赖捕捉。此外,Transformer摈弃了RNN的递归结构,因此可以并行处理序列数据,大大提高了训练速度。
预训练与微调策略:预训练与微调策略允许模型在大规模如标签数据上进行无监督学习(与训练阶段),然后在特定任务上进行有效监督学习(微调阶段)。这种方法显著提高了模型的泛化能力和性能。
BERT和GPT系列模型:基于Transformer架构和预训练与微调策略,BERT(Bidirectional Encoder Representations from Transformers)和GPT(Generative Pre-trained Transformer)等大型语言模型相继出现。这些模型在各种NLP任务上取得了显著的性能提升。
更大规模的模型:随着计算能力的增强和数据量的扩大,研究人员开始训练更大规模的语言模型,例如GPT-3和GPT-4。这些模型具有更强的泛化能力和生成性能,能够完成更复杂的任务。
多模态学习:大型语言模型的发展也推动了多模态学习的研究。例如,结合视觉和文本信息的模型(如CLIP和DALL-E)能够处理图像和文本的生成、分类等任务。
随着GPT-4的推出,同时拥有了多模态的学习能力,随着应用插件和开放网络浏览器和代码解释器,ChanGPT链接上了人类所有的知识,以及未来及时的创造。
未来也许会有更好的模型出现,但到目前为止,他展现出来的智力和学习能力已经让人惊叹。
三、AI未来的展望
这次以GPT为代表的人工智能将如何改变现有的一切,我没有能力去展望。它会不会如Ray Kurzweil(雷.库兹韦尔)所预言的那样,奇点已经来临。以人类为代表的碳基文明将让位与硅基文明,我不得而知。现有的人工智能技术能否涌现出人类的情感、想象,从而主动去改变世界,也无法判断。
但是任何系统都有它的局限性的一面(受到哥德尔完备不一致定理的约束),目前人工智能技术的局限一是这个模型本身的约束在哪里,我们还不好理解。二是在于它的信息传递方式------依靠电子传递信息。也许真正的超级智能需要等到量子通讯和量子计算的成熟,以及更高层级的模型架构。
尽管如此,我们还是可以做一些展望:
这轮AI浪潮将会极大地提高全人类的生产力水平。从数字产业自身的发展到应用场景的拓展,都有极广的空间。每个相关人都需要聚精会神的关注、学习、理解、适应它。
人型机器人会是这轮AI浪潮的爆款产品,一个拥有了比人还强的视觉和语言理解能力的机器,只要硬件过关,他就可以替代人做很多很多工作。
一轮新的创新周期爆发后,垄断和集中会比以往的产业革命更加迅速。毕竟绝大多数人无法参与这场革命,只能在别人设定的程序里感受热闹。
投资市场会比以往变得更加困难,你面对的对手不只是拥有信息优势,而是智力上的优势。也许价值投资、长线投资反而变成了主流。
在大家关注AI美好前景的同时,很多东西可能会消失。比如在自动驾驶领域,是不是有视觉和智能就足够应付路况,多余的感知系统就变成了多余,就和我们人类开车是一样的。
随着上一轮互联网发展红利消耗殆尽,世界范围内期待着新的技术革命,从而带动全社会生产力的提升,增进社会财富,OPENAI公司推出的GPT产品重新点燃了大家的希望,希望通过这个产品以及相关的AI技术应用,能够重新推动人类文明的进步。
谢谢大家的参会!