朱小黄:不确定性与数据重构

文/朱小黄

在异度均衡理论的研究中,需要深入讨论不确定性在人类文明秩序尤其是在经济生活中所具有的意义。随着这⼀研究的深入,引起了笔者对数据、经济计量模型的逻辑与运用的思考,并得出了在不确定性认知框架下,现有数据必须重构的结果,本文试图加以阐述。

⼀、深刻认识世界的不确定性本质

到目前为止,我们对不确定性的认识还有待深入,因为人类整体上还是生活在偶然性之中的。经济研究、风险研究等多方面的研究,主要应是寻找各种偶然性的成因条件或可能的后果。不确定性是风险管理的理论来源,现代风险管理主要是对不确定性,即赖特所说的可计量的不确定性进行管理,但如果提升到不确定性的层⾯上来看的话,不可计量的不确定性在广义上是否也是风险管理的应该考虑的问题。

看不见的手作为现代经济学的起点,它的哲学背景其实是基于不确定性的,是通过市场价格让市场自发地形成均衡状态,而不是通过自以为是的行政手段。其实计划经济的弊端根本上就在于它是以确定性为前提而设计的经济运行规则。

世界的本质为什么是不确定性的呢?我们知道这个世界的本源是无序的,热力学第⼆定律,就是熵增定律,说明所有的事情都是在熵增,熵增就是⼀个无序的结果。无序的物理世界决定了世界的不确定性本质。所谓人类文明,就是人类通过自律,建立秩序、建立规则、产生知识。通过规则的建立和遵循来减少熵增,本质上就是人类在对抗不确定性方面的努力。

除了物理学上的依据之外,人性的差异也是⼀个重要的不确定性的来源。世界上没有两个相同的人,就像没有两片相同的树叶⼀样。人性的差异导致了人类行为的高度不确定性。人性的自负是人性差异的深层根源,而自负是基因所决定的。

人类对宇宙自然的认知总的来看未知远远大于已知。由于宇宙与自然的无穷,人类的认知能力永远只是浩瀚之一角,对人类而言,已知的越多,则未知的越大。这就在客观上决定了人类⾯临着未知所挟带的不确定性。人类认知的能力永远是有限的,人类文明的规则边界也永远是有限的,因此人的行为的不确定性永远存在。

传统知识的传承和运用的偏差带来的不确定性也是惊人的。知识的传承是有偏差的,离世界的本源永远会存在或大或小的偏差度。《人类进化史》的作者也讲到,人类变成现在的这个样子,找不到必然的道理和根据,都是偶然性的产物。这种偏差可以体现在概率论的计算公式中。任何事情发生的概率,其实质就是与常识判断的偏差。在现代工业文明社会,由于知识与技术运用越来越广泛,认知偏差愈来愈多,事物发生偏差的概率也越来越大。

在不确定性的框架下,我们应该清醒地意识到:人类其实生活在偶然性之中。必然性的自由王国是可望不可及的。正如某位经济学家所言:身处偶然性之中的人类却在梦想过着必然的生活。这是⼀个方向性的认知偏差。

不确定性的分布方式和形态是多样化的,其中许多事物的变化具有较长的时间跨度,具有相对的稳定性,这就为人类生存和文明发展提供了窗口,产生了各种自然科学并积累成知识。而另⼀些事物尤其是人的行为,则是偶然性的,如果失去秩序的约束,走向无序才是本质。

⼆、不确定性框架下的数据分类和重构

人类的行为产生数据,人们的决策依赖于数据,数据的重要性不言而喻。在实际经济生活中,运用数据观察现状、预测未来,是宏观经济、微观经济和各种交易活动中的常态。各种数据分析、数据样本的确定,经济模型中的变量和常量的选择和计算,都基于数据。

近年来数字经济蓬勃发展,数据应用的广度和深度在不断拓展,导致数据及其应用模型的风险已成为影响世界的重要风险现象。因此,数据的使用理应慎之又慎,且应建立在坚实的理论认知基础上。但是当前数据使用过程中,尤其在计量模型的运用上,拿来主义颇多,缺乏对数据根源和性质归属的底层思考,在实际经济计量中,造成了两类问题,⼀种是历史数据和边际数据混杂在⼀起,将许多偶然性的、不可重复(即对未来并无表达意义)的数据用来建立模型预测未来;另⼀种是将许多自然界产生的可重复数据应用到预测人类行为上,作为经济预测模型、金融风险模型和智能模型的样本,产生风马牛不相及的问题。这两类问题愈演愈烈,导致了大量的模型失真或算力浪费现象的产生。由于世界的本质是不确定性的,在不确定性的框架下,万事万物具有偶然性的特征,也有相对确定性的特征,在自然科学领域,由于相对稳定的自然环境,产生了自然科学的诸多文明和算法,所以自然科学产生的数据基本上是可重复的、可验证的。这类数据对未来具有指导性,而人文领域中的许多现象,都与人的行为有关,具有偶然性的特征,除了人类文明规则指导下的行为,其他的行为都很难重复和验证。基于这样的不确定性判断,我们将人类全部可以采集到的数据划分为历史数据和边际数据(即终端数据、实时数据),这两类数据都混杂着可重复的数据和不可重复的数据,即必然性数据和偶然性数据。前者对观测未来无效,后者对观察现状有用。厘清从客观世界到数据采集的过程,并在此基础上按照不确定性的原理对数据进行重构是当务之急。

物质领域⾥的规则相对稳定、时间较长,例如岩石风化、火山爆发,这就给像牛顿定律这样的规律留下了时间窗口,在这个时间窗口中,实验是可重复的,数据就是可重复的。而在人文科学领域则不然,很多行为是无法重复的,既然是不能重复的,那么凭什么拿这些不可重复的数据来建立模型预测未来?因此,现有的数据要重新定义、分类,只把那些在不确定性前提下具有重复空间的数据拿来使用,才能指导未来。

经济社会每个时期会有当时的文明秩序,而这个秩序在短期之内不会改变,在这种时期内的数据是可以重复,可以观测未来的。这种相对确定下的数据我们可以视为必然性数据,是可以重复验证的。但是,很多不可重复、不可实验的数据拿来建模、提炼因子、计算未来,是不合理的,这是目前风险管理、经济测算等领域迈不过瓶颈的⼀个重要原因。其本质在于数据没有按照不确定性的原理做好分类和重构。

风险计量和测算是未来发生收益和损耗的可能性或者概率,而不是预测未来会发生什么具体的事件,其必须建立在可重复性数据基础上。如需研究未来会发生什么具体的事件,按照不确定性原理,主要是研究因果关系,只能以实时数据为主要资源。所以需要重新审视各类数据的来源。

数据到底怎么分类?笔者认为,数据大概有三种形态,即时间维度上的历史数据和边际数据(或实时数据)、不确定性的形态决定的可重复数据和不可重复数据、从人文科学规则的稳定性不同而形成的必然性数据和偶然性数据。

大体上物质关系有相对的确定性。人的行为就比较复杂,有一些可重复,有一些不可重复,有秩序的是可重复的,例如交通规则就是相对稳定的。如果把数据这么一分,有一些问题就需要重新考虑了,例如风险计量通常是通过历史数据来确定、违约概率、损失概率,然后建立模型计算未来的风险成本,这是假设历史数据都是可重复的,但是事实上历史数据并不是全部可重复的,那这样的计算可行吗?可信吗?

为此,笔者提出了独特的据重构思路,⼀是从时间维度出发,将数据分为历史数据和终端数据(或边际数据),二是从产生数据的源头出发,将数据分为自然数据和行为数据,三是从不确定性出发,将数据分为必然性数据(可重复)和偶然性数据(不可重复)。

三、经济周期与规律再认识

从不确定性原理出发,把数据按照上文做出重构后,经济周期的存在性就需要重新考量。我们目前划分经济周期,通常是采用历史数据,观察期波峰波谷,以两次波谷或两次波峰之间作为⼀个经济周期,但是正如上文所言,历史数据中并⾮全部是可重复的数据,历史长河中,社会和经济的秩序也⼀直在发生着变化,在不同的秩序之下产生的数据,按照我们上文中的定义来看,是不可重复的。因此,数据不可使用或不可直接使用,那么基于历史不可重复数据得出的结论就是不可行的。

但是,在经济周期问题背后,经济规律的研究是另外⼀个问题。经济周期的形成是必然性还是偶然性?如果是偶然的,那么就不存在经济规律,如果是必然的,那就是有⼀个经济规律在其背后发生作用,那其规律⼜该如何发现?这就需要我们对数据做出划分之后,选取其中可重复的部分,对可重复的数据进行研究,才能发现其规律。

所以到目前为止,笔者很难确定有所谓经济周期的存在,但可以确定的是可以从事物的因果关系来预判即将发生的变化。

四、智能化与边际数据

数据重构的⼀个重要应用场景是智能化。通常智能化需要机器学习的支持,而机器学习需要大量历史数据的训练,然后应用到边际数据上做出智能化的建议、应对、动作等。我们看到工厂操作的智能化就相对容易,因为在工厂这样⼀个相对独立的环境中,动作重复、秩序稳定,因此其数据都是可重复的,机器的训练基于这些可重复的数据效率就很⾼。但是在社会和经济的范围内,其⾯临的环境复杂多变,机器学习所需的训练虽然可能看似庞大,但其中可重复部分可能极少,不可重复的部分可能还会对学习过程产生很多干扰,这就导致机器很难找出其中的规律。

另外在使用边际数据时,也要对其能否重复进行区分。尤其是现在每天产生数据规模巨大,这些都属于边际数据。虽然在大数据技术突飞猛进的环境下,算力也在快速的进步,但如果可以甄选出其中可重复的数据后,再利用大数据的技术对其进行处理,那就可以节约大量的算力并迅速得出更有针对性的动作。

所以智能化的数据结构也需要升级优化。

五、经济模型与量化投资

另外⼀个数据重构的应用场景是经济模型与量化投资。在量化投资的实际操作中,经常会发现同样的策略,使用不同的样本训练出的结果可能大相径庭,而且同样的策略在不同的时期做出的回测结果可能也存在很大的差异,甚⾄在各阶段回测时都表现很好的策略在实际操作中也可能表现不尽如人意,同样,在计量模型、银行违约模型等类似领域都存在这样的问题。造成这些问题的根本原因就在于⾦融市场也存在秩序的变化,其历史数据中也存在不可重复的部分。

在数据科学中,有⼀个数据“有效性”的概念,其实与上文所提类似,但是有效性这⼀说法只是⼀个模糊而笼统的概念,有效⼀词也没有反应出其有效本质在于可重复。用不可重复数据做出的模型、做出的预测,其在未来应用中的实际使用效果令人堪忧,因此,如何对数据重构,如何剔除庞杂的历史数据中不可重复的部分,就是⼀个非常重要的投资模型升级问题。

作者简介:朱小黄,蒙格斯智库学术委员会主席;中山大学经济学博士,国务院特殊津贴获得者;中国行为法学会金融法律行为研究会会长;原中国建设银行首席风险官、副行长,原中信银行行长、中信集团监事长。朱小黄博士是国内风险研究和宏观经济研究领域专家。

发表评论
留言与评论(共有 0 条评论) “”
   
验证码:

相关文章

推荐文章