服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

复杂科学的信息论基础——最大熵原理

日期: 来源:集智俱乐部收集编辑:Amos Golan等


导语


建模和推断是大多数科学领域的核心,尤其是对不断发展的复杂系统。关键是,我们所拥有的信息往往是不确定的和不充分的,从而导致欠定推理问题(有无穷多解的问题);多种推理、模型和理论都与我们所拥有的关于此类系统的信息相一致。信息论(特别是最大信息熵原理)提供了一种处理这种复杂性的方法。在过去几十年里,它已经被应用于许多学科内部和跨学科的许多问题。


这篇文章回顾了最大熵原理的历史发展,概述了这个理论的许多应用及其对复杂系统的拓展,并更详细地讨论了最近在构建基于这个方法的综合理论方面的一些进展。文章还讨论了在信息论推理领域的前沿工作:应用于具有时变约束的复杂动力学系统,如高度扰动的生态系统或快速变化的经济系统。本文发表于《美国国家科学院院刊》(PNAS),作者为圣塔菲研究所研究员。


关键词:信息论,复杂科学,最大熵原理,复杂动力学

Amos Golan,John Hart | 作者

刘志航 | 译者

刘培源 | 审校

邓一雪 | 编辑



地址:https://pattern.swarma.org/article/227

本文首发于“集智斑图”网站,欢迎扫码登录集智斑图,获取完整学习路径。


论文题目:
Information theory: A foundation for complexity science
论文链接:
https://www.pnas.org/doi/10.1073/pnas.2119089119


目录

1. 简要的历史视角

2. 关于概率解释的旁注

3. 最近的应用:概述

4. 用于发展理论的最大熵原理

5. 生态学理论的例子

6. 经济理论的例子

7. 基于最大熵原理的批评和失败

8. 最大熵原理方法对动力学系统的扩展

9. 开放性问题

10. 小结与结论


在过去几十年里,技术的进步推动了科学在两个方向上的爆炸性增长:数据的获取能力和处理数据的计算能力。在取得这些进展的同时,科学家们越来越意识到,文明的进步取决于我们理解经济和生态系统等极其复杂的系统的结构,和预测其未来行为的能力。但是,如何将新技术的成果用于这一目标却给我们带来了巨大的挑战。

可以想象,巨量的数据和高性能计算机与人工智能、机器学习、深度学习和一般数据科学的进展相结合,可能会实现这一目标。事实上,这些技术在国际象棋、围棋、计算机视觉和机器人方面的应用已经取得了进展,在文本生成、面部和语音识别、运动检测和其他任务方面的改进也是如此。除了大数据,在过去 几十年里,有许多数学发现和新定理,为某些复杂系统的理论分析开辟了道路。然而,真正复杂的系统,如生态系统、经济和气候,似乎特别难于通过这些先进的工具和新的数学发现进行分析。用于研究和模拟此类系统的现有信息不足以得出可靠的结果,即使我们拥有海量的数据集。这类问题大都是欠定推理问题。此外,无数不为人知的机制,包括掩盖因果关系的反馈网络,都在背后影响着我们的判断。空间和时间的边界条件可能不会唯一地预测这些复杂系统的发展轨迹。

理解这样的复杂系统需要理论以及从理论中衍生出来的模型,和大数据综合使用。然而,需要什么样的理论或模型?在寻找答案的过程中,自下而上的、还原论的和基于主体的模型是自然的候选。如果这些方法可以与类似于牛顿定律的确定性定律相结合,那么预测理论可能是可以获得的。不幸的是,上述问题通常使这类系统对传统的机械式建模不透明。有多种理论和模型与我们所拥有的关于此类系统的信息相一致;这些都是大规模的欠定问题。

近四十年前,John Skilling[1]提出了一个基本问题的答案。我们如何预测不完全表征的系统的行为?他的答案是转向信息论,特别是转向最大熵(MaxEnt)原理[2]。其基本思想是将我们所拥有的关于一个复杂系统的信息和知识作为约束条件,然后,使用完善的数学程序,通过在这些约束条件下最大化某个目标(决策)函数来推断额外的知识。该目标函数来自信息论,它的最大化确保我们对先前的知识进行了最佳利用。

最大熵原理是一个强大的推理工具,可以用于建模和理论构建。每个具体的应用都是不同的,都需要自己的信息和结构,但最大熵原理是解决大量问题的一般逻辑基础。这篇文章简要回顾了这一原理的发展历史,概述了自 Skilling 文章发表以来出现的最大熵原理及其对复杂系统扩展的许多应用,并更详细地讨论了基于这一推理程序构建综合理论的一些最新进展。文章最后还讨论了在信息论推理前沿的努力(应用于具有时变约束的复杂动力学系统,如高度扰动的生态系统或快速变化的经济系统),并认为信息论推理与更传统的机械论建模融合,可能提供最大的洞察力。最后,对开放性问题和潜在的新方向进行了思考。




1. 简要的历史视角




信息论推理的最初原则可以追溯到16世纪末雅各布·伯努利(Jakob Bernoulli‎)的工作。他建立了不确定条件下决策的数学基础,被公认为是概率论的鼻祖。Ars Conjectandi[3]总结了他的工作。伯努利提出了“不充分理由原则”,尽管该原理也归功于拉普拉斯(Laplace)。它指出,如果没有关于某一特定结果的概率的相关信息,我们必须将所有可能的结果视为同样可能(等概率)。在伯努利的工作之后,辛普森(Simpson)[4]、贝叶斯(Bayes)[5]和 de Moivre[6]独立建立了更多数学上合理的推理工具。然而,正是拉普拉斯[7]凭借他对逆概率和“逆推论”概念的深刻理解,最终为统计和概率推断或不确定性下的逻辑推理奠定了基础。最大熵原理和信息论推理的基本原理就是从这项工作中发展起来的。

经过了近两个世纪后,来到了香农(Shannon)[8]和 Jaynes[2]的时代。香农在通信理论方面的工作,特别是他提出的信息熵,成为现代信息论的基础。在此基础上,Jaynes 认识到,香农的信息熵为不确定性下的无偏推断提供了关键。特别的,Jaynes 概括了伯努利和拉普拉斯的不充分理由原则,并确定了他关于最大熵原理方法的经典工作。

最大熵原理选择最平坦的,因此也是信息量最小的,与先验知识所施加的约束相适应的概率分布。因此,以非先验知识强制的分布假设形式出现的主观偏见被消除了[2, 9]。概率分布的最大熵原理形式,p(n) 通过在强加的约束条件下最大化其香农信息熵[8],即来获得。正如 Skilling[1]所指出的,Jaynes 的最大熵原理为不完全信息的推理提供了一种系统的、最佳的方法。随后,许多学科的大量研究人员都在方法上取得了进展[10-18]。

为了理解使用最大熵原理推理的动机,请考虑以下四个前提,它们构成了知识获取的逻辑基础。

(1)在科学研究中,我们从先前的知识开始,并寻求扩展这种知识。

(2)知识在本质上几乎总是概率性的,因此,我们寻求的扩展知识往往可以用概率分布的形式进行数学表达。

(3)我们的先验知识,包括我们拥有的信息,往往可以用对这些分布的约束来表达。

(4)为了扩展我们的知识,我们所寻求的概率分布应该是“最小的偏差”,即分布不应该隐含或明确地依赖于除我们的先验知识所包含的信息之外的任何假设。

当然,关键是如何实现上述第4步。幸运的是,有一个严格证明的数学程序可以做到这一点[13, 19, 20],而这正是 Jaynes 早先提出的最大化香农熵的方法。因此,接受这四个前提就需要接受一个特定的信息论推理过程,即最大熵原理。方框1简要介绍了最大熵原理的数学机制[13, 19, 21]。

+
+
LATEST NOTICE

方框1. 最大熵原理

为了说明最大熵原理推理的基本结构,我们使用最简单的单变量离散概率分布p(n)的例子,我们试图推断其形式。假设我们的先验知识由p(n)上的K个函数的平均值组成,其中k可以是1,2,...,K。用来表示这些平均值,我们对p(n)有以下约束:

另一个约束是p(n)被归一化为 1。

如果 N 可以取任何值,比如说 1 到 N 并且N>K+1,那么这些约束不会唯一地确定 p(n)。然而,在这些约束条件下最大化p(n)的香农熵确实会产生唯一的最大熵解:

其中,Z是一个归一化常数,是拉格朗日乘数,它与Z一起是的唯一确定的函数。用变分法[21]的直接应用来推导这个结果。同样的框架很容易扩展到更复杂的问题,其中概率分布可以是多变量的,连续的,并以其他因素为条件。

在所有与所使用的信息(约束条件)相一致的分布中,p(n)的最大熵解可以被证明[13, 19]最接近于均匀分布(等概率),因此,它捕捉了最大的不确定性状态。在这个意义上,得出的概率分布是无偏的;任何其他分布,由不同的目标函数产生,都会隐含地体现出先验知识所不能证明的假设。
+
+




2. 关于概率解释的旁注




在最大熵原理的应用中,我们并不关心频率和纯概率之间的区别;作为最大熵原理推理的输入,对概率分布的约束可能来自经验数据(频率学派)、贝叶斯推理或对称性和守恒定律的任何组合。概率从未被观察到;它们始终基于观察到的频率或自然法则的理论预期或推断可能性。有些人认为,概率是以这些规律为客观基础的,例如凯恩斯(Keynes)[22],而其他人,例如Ramsey[23],则认为它们是主观的置信度,也被称为“贝叶斯概率”。

不管是哪种解释,我们断言,有一种独特的、最合理的方式将置信度分配给系统的状态。对客观发生频率的理论预期是最大熵原理推理的目标。最大熵原理会更新概率,无论是基于频率还是基于主观信念,都是使用我们所拥有的信息(参考文献[23];最近的讨论见参考文献[16],方框2.1)。先验信息可能是嘈杂的、不完善的,并受到解释和处理错误的影响,但在最大熵原理框架内,我们先验信息中的不确定性和不完善性可以被轻易地容纳。

总之,最大熵原理方法是一种客观的推理程序,因为拥有相同先验知识的不同分析师,无论获得的知识如何,无论多么不完美,都会得出关于推断分布的相同结论。

 



3. 最近的应用:概述




在过去的几十年里,信息论推理,特别是最大熵原理的应用在许多学科中蓬勃发展。图1总结了不同学科的代表性应用。我们把它们分为两大类:基于数据的推理和理论的构建,尽管这种区分并不总是确定的,有些应用可能同时属于这两个类别。在每个例子中,我们在第2栏定义了作为我们希望推断的概率分布的参数的实体,在第3栏定义了作为约束条件的信息,在第4栏定义了我们从最大熵原理获得的新信息。

图1. 信息论最大熵原理推理的代表性应用概述。

参考文献[1]中强调的基于数据推理的应用始于伯努利和拉普拉斯,与理论构建的应用不同,它们的重点是回答关于特定数据集的具体问题,或解决其中的模糊或缺失和不完善信息。这方面的例子包括提高模糊图像的分辨率,填补经济投入产出表中的缺失数据,以及在气候变化下推断一个物种的未来分布范围。方框2显示了一个从汇总数据中创建投入产出表的例子。

+
+
LATEST NOTICE

一个投入—产出和社会核算矩阵(SAM)的例子
 
经济学家经常使用到区域或整个经济的均衡模型。这种模型需要使用多部门的经济数据来估计投入、贸易和/或收入流动的矩阵。这种详细的数据要经过长时间的延迟(大约十年)才能获得。但是,聚合数据(每行和每列的总计)始终可用。 因此,欠定问题是从不完整的聚合数据中推断出满足多个线性约束的新矩阵。 如下表所示,其中观察到的信息是行和列的总和(大写),所需信息是矩阵条目(小写)。

为了把这个问题放在一个具体的经济背景下,考虑一个有K个部门的经济的 Leontief 投入产出模型,每个部门生产一种商品。这些部门互相购买非负数的产品,作为中间投入使用。一个投入产出表还包括对主要生产要素的支付行和最终需求的类别列。一个社会核算矩阵扩展了投入产出账户,增加了从要素支付(附加值)到商品最终需求的账户。投入产出表是矩形的,而社会核算矩阵总是方形的,行和等于列和 X=Y 和 AX=Y。在一个 K×K 的SAM 矩阵中,称其为A,A的列和等于1,而且该矩阵是不可逆的。

在这个例子中,我们展示了如何利用最大熵原理方法来填充 3×3 单元格的SAM。


该表是一个3×3的SAM矩阵,元素为。我们想从观察到的行和列之和(Y和X)来推断这些数量。

尽管X、Y和A的单位是美元(流量),但观察到的 X 和 Y 可以被归一化,所以矩阵 A 可以被看成是一组 K 的概率分布。为了解决这个问题,我们在 K 个线性约束和 K 个归一化的条件下,最大化熵。解为,其中是与三个线性约束中的每一个相关的 K=3 个拉格朗日乘数,是归一化系数。如果任何额外的信息是已知的,如a21=0,它也可以被纳入模型。这种方法经常被用于经济学[15, 34]以及其他相关的矩阵平衡问题。下面讨论的马尔科夫例子是这个简单模型的一般化。

相比之下,基于最大熵原理的理论构建的目标是推断概率分布,这些概率分布构成了对各类系统(如热力学系统、生态系统或经济系统)中各种现象的统一而全面的预测性理解。第一个例子,Jaynes 对统计力学的推导,为图中所示的许多最新应用打开了闸门。由于理论构建更为雄心勃勃,但许多人却不太熟悉,因此我们在下文中详细讨论[2, 15-18, 24-66]。
+
+
 



4. 用于发展理论的最大熵原理




许多复杂的物理、生物和社会系统可以用地在两个完全不同的层次进行描述(尽管是近似的):微观尺度和宏观尺度。在理想气体的经典统计力学中,我们将单个气体分子的动能(微观变量)与宏观变量(通常称为状态变量)区分开来,如压力、体积和温度。在生态学中,我们将单个生物体的生长速度和每个物种的丰度与状态变量区分开来,如总生产力和系统中的个体总数。在经济学中,我们将个体的生产和消费与经济的总需求和总供给或总的国内生产总值(GDP)区分开来。

这种系统的自下而上的模型,其理论选择从系统的微观组成部分中运行的主导驱动机制开始,然后从微观驱动因素预测宏观行为。这种方法虽然有时很有启发性,但却建立在对机制和参数值的假设上,很少能得到验证。

基于的理论采取自上而下的方法来推断概率分布,从以宏观约束形式指定的先验知识中描述微观层面的细节。如果没有最大熵原理,问题就无法确定,因为低维的宏观约束不能唯一地确定微观变量的高维分布的形状。




5. 生态学理论的例子




图1中提到的生态学理论(理论构建,第2行)被命名为 METE(生态学最大熵原理Maximum Entropy Theory of Ecology)。在从小地块到大景观的空间尺度上,对于各种生境类型,以及在广泛的物种群体中,如植物、鸟类、昆虫或微生物,METE 预测了描述物种和个体的丰度、空间分布和能量学模式的功能。例如,考虑森林指定区域内的树木群落。在 METE 中,状态变量是系统的面积(A0),群落中树种(S0)和个体(N0)的总数,以及树木的总生产力或新陈代谢率(E0)。这些所起的作用大致类似于热力学中的压力、体积、温度和分子数,不过在热力学中,每个状态变量都是广泛的或密集的,而在生态学中,S0两者皆不是。

METE 的核心是两个概率分布:一个是描述个体在物种间分配和个体间新陈代谢的生态结构函数,一个是描述个体在物种内空间聚集的空间分布。结构函数是一个联合概率分布,以三个状态变量为条件,给出随机选择的物种具有丰度 n 和从具有丰度 n 的物种中随机选择的个体具有代谢率 ε 的概率,是如果一个物种在区域中具有丰度的概率,那么它在一个区域 A 中的丰度 n 随机位于A0。状态变量S0、N0和E0的比率构成了确定结构函数的约束条件,而nA/A0(A 中 n 的平均值)是对空间分布的约束条件。如果指定了约束,则这两个分布的最大熵解没有可调整的参数。如果没有它们的实际测量值,我们可以从其他数据和一般原理间接推断它们。例如,在一片草地上,昆虫的代谢率不容易测量,但如果假定一个与质量和新陈代谢相关的代谢比例定律,则可以推断出代谢率[67]。

从结构函数和空间分布来看,有许多可检验的生态学预测,包括物种丰度和个体代谢率的分布[68];个体的种内空间聚集度[68];物种多样性对采样面积的依赖性[69];物种丰度和个体平均代谢率之间的关系[68];以及与生物量、代谢率、丰度和物种多样性有关的状态方程[18]。图2显示了 METE 的数学结构,说明了多种模式的预测是如何从最大熵原理的应用中产生的。

图2. METE 的数学结构。经验上可检验的指标,如物种的丰度分布和个体的代谢率分布、物种—区域和地方性—区域关系以及能量等价原则,都来自于对该理论中两个基本分布的特定数学运算:生态结构函数 R 和空间分布 Π,而这两个分布又是在文本中规定的约束条件下用最大熵原理推导出来的。改编自参考文献[53]。


实证检验为该理论提供了支持[69-72]。原有理论的扩展,增加了属或科的数量的状态变量,成功地预测了物种在这些较高分类类别上的分布,以及丰度—代谢关系对分类树结构的依赖性[53,73]。





6. 经济理论的例子




在图1(理论构建,第3行和第4行)中,我们提到了基于最大熵原理的经济和社会科学理论。根据具体背景,感兴趣的研究实体可能是个人的偏好、信仰、战略、战略行为,甚至是决策过程。模糊性的产生是因为我们无法观察,例如,个人的偏好,以及偏好和行动之间的关系。因此,约束条件的规定可能很复杂,而且是针对具体问题的。

在一个早期的应用中,Golan[54,74]使用最大熵原理推导出一个经济中企业规模分布的多变量随机理论。它是一个受一些资源和技术约束的主体生产的统计模型。在参考文献[16]和[75]中,将这一理论扩展到由消费者和生产者组成的复杂经济体的一般均衡模型。[16]和[75]。Foley[55]发展了市场的统计均衡理论。市场分析始于市场主体的报价集,这些报价集反映了他们期望的和可行的交易,这些报价集是以市场主体的信息、技术可能性、禀赋和偏好为条件的。市场将主体分配到报价集上,以使市场交易分布的熵最大化。鉴于市场主体的偏好,这是可能的最分散的分配。这种自上而下的理论是基于最小的宏观信息,与经典的自下而上的经济模型相比,需要更少的结构和假设。

信息论推理也很好地将博弈理论与经验证据联系起来。McKelvey 和 Palfrey[76]在博弈论设置中采取了一种统计学方法来建立定量(离散)选择模型。玩家根据他们的偏好(预期效用)选择策略,选择基于数量选择模型,并假设所有其他玩家也在做同样的事情。给定一个特定的误差结构,随机最优反应均衡(也叫量子响应均衡QRE)是这个过程的一个固定点。由此产生的反应函数是概率性的;更好的反应比更差的反应更有可能被观察到。他们研究了一个特定参数类的量子响应应函数,这是分析经验选择模型的传统方式,以产生一个 Logit 均衡。最大似然 Logit 模型正是所有无序离散选择问题的最大熵模型[77]。QRE 可以通过这种方法直接开发。这又将来自统计学和信息论的两个文献分支结合起来,为博弈建模,它为做实证研究提供了一个简单的方法。最近,Scharfenaker 和 Foley[78]在上述工作的基础上,采用最大熵原理在经济互动模型中发展了一个量子响应的统计均衡。




7. 基于最大熵原理的批评和失败




对基于最大熵原理的理论的一个批评是,对状态变量的选择似乎是任意的,对所追求的概率分布的选择也是如此,例如 METE 中的结构函数。理论构建是否只是在试错中寻找合适的约束条件和目标函数,以准确预测自然界中的模式?对此,我们指出,类似的担忧也适用于自下而上的模型,这些模型通常包含对函数形式、个体行为和描述微观互动的参数值的任意选择。我们的回答是,科学理论从来没有纯粹来自于逻辑;理论元素的选择往往部分地受到直觉和数据可用性的指导。

如果指定正确,约束是足够的统计数据,并捕获描述系统行为所需的信息。它们和香农的熵目标函数提供了一个可证实的手段,以最简单的方式来描述系统的特征。

对最大熵原理的理论的另一个批评是,由于缺乏明确的机制,没有获得因果关系的洞察力。一种回应是,当基于最大熵原理的理论是成功的,那么无论决定状态变量值的机制是什么,这些机制都足以解释微观尺度上的概率分布;为了预测观察到的模式,不需要增加复杂性。在这个意义上,即使决定状态变量的实际机制是未知的,机制的作用也是确定的。下面,我们提供一个例子,最大熵原理允许我们推断因果关系。

最大熵原理和因果机制之间的一个重要联系源于这样的观察:如果用于建立基于最大熵原理的理论的状态变量集不足以做出准确的预测,那么这种差异的性质可以为识别重要机制指明方向。例如,在热力学中,理想气体状态方程在状态变量的极端值下的失败,却推动了分子间范德华力的发现。

在生态学中,如果额外的流动资源,如水、氮等,与表示为总代谢率的能量流一起在个体之间分配,那么预测的丰度分布,在物种上的分布就会发生改变。MET E在其原始形式中预测了一个对数系列的丰度分布,在小的n下以1/n的形式变化。然而,如果增加了个额外的资源约束,那么丰度分布以1/nr+1的形式变化[17],从而增加了预测的稀有物种的比例。根据生态学中的生态位概念,这是有道理的;更多的限制性资源为稀有物种的生存提供了更多的专业机会。因此,METE 将群落中的稀有程度与驱动宏观生态模式的资源数量联系起来。METE,一个看似非因果机制的理论,可以告诉我们什么机制可能驱动这些模式。

当使用静态约束条件得出的最大熵原理,被应用于状态变量值随时间变化的动力学系统时,统计理论失败的一个戏剧性例子就出现了。然而,如果最大熵原理被正确地指定,动力学系统也可以被建模(图1,理论构建,底行)。作为一个例子,考虑最大口径(MaxCal)(图1,理论构建,第6行)。应用与最大熵原理相同的原则,MaxCal[59-62]给出了一个动力学系统或网络的不同潜在路径的概率分布。最大熵原理处理的是平衡状态和相对静止的种群,而 MaxCal 适用于远离平衡的系统。其思路是,在所有可能的路径上,在动态约束条件下,最大限度地提高路径熵(定义为动态过程在特定路径上演变的概率)。这就产生了可能路径上的概率分布:一个系统从一个状态到另一个状态的相对概率。在大多数实际情况下,这种方法被应用于离散的概率分布,而离散的概率分布实际上是由一阶马尔可夫过程来描述的。从技术上讲,尽管 MaxCal 处理的是动力学系统,但其基本逻辑是,这些动力学,或路径,在整个分析期间实际上是固定的,而约束条件是不同路径的平均数。这样一来,与最大熵原理的联系就很容易看到了。在下面的内容中,我们提供了对动力学系统建模的新方法。




8. 最大熵原理方法对动力学系统的扩展




如果状态变量在时间上发生变化,例如在非平衡热力学系统、受干扰的生态系统或转型中的经济,动力学状态变量的瞬时值所施加的约束可能无法准确预测瞬时的微观分布。在生态学中,存在有许多这种预测失败的例子[72, 79-82]。

从 METE 到 DynaMETE

为了将基于最大熵原理的生态学理论从静态领域扩展到动态领域,Harte等人[18]提出了一个理论框架,称为 DynaMETE,该框架将最大熵原理推理程序结合扰动系统,并与产生随时间变化的状态变量的明确过程混合起来。DynaMETE 是对 METE 的远离稳态生态系统的扩展,它只适用于具有时间无关的状态变量的系统。现在的状态变量列表包括宏观变量的瞬时值和静态理论宏观变量的一阶导数,S、N和E。在这种情况下,纯粹的自上而下的方法是不够的;DynaMETE 是一种混合理论,它将微观层面的机制与自上而下的最大熵原理相结合。

DynaMETE 的一般结构应适用于任何具有明确可区分的宏观状态和微观状态的系统,其中微观变量的时间演变可以写成微观变量和宏观变量的瞬时值的过渡函数。系统的时间演化是在一个迭代过程中计算的,其中宏观变量是通过对概率分布的平均过渡函数来更新的,而这些概率分布又是通过使用全套状态变量作为约束条件的最大熵原理瞬间施加的。参考文献[18]中提出了一个解决该理论的一致的迭代程序,并在SI附录S1方框中用一个简单的玩具模型实现了更普遍的 DynaMETE 框架来总结。

如果微观尺度和宏观尺度纠缠在一起,即支配微观尺度变量动力学的机制部分地受宏观尺度变量值的支配,那么扰动的两级系统的动力学就特别复杂,并具有丰富的可能性[83]。尽管最初被认为是生物系统特有的属性,但我们认为,没有理由不在任何复杂系统中出现这种微观尺度和宏观尺度的纠缠。例如,在经济学中,个人的工资或公司的利润的变化可以受到宏观经济状况变化和公司及工人数量变化的影响。在生态学中,任何特定物种中个体的繁殖率和增长率都可能受到生态系统中个体总数变化以及该特定物种密度的影响。在 DynaMETE 框架中很容易将这种纠缠不清的动力学纳入考量(SI附录,方框S1)。

在静态约束下,状态变量在时间上相对恒定,DynaMETE 还原为静态 METE。然而,在发生生态扰动后,如森林火灾或外来物种的入侵,它会对生态学家感兴趣的模式进行了新的预测,如物种—面积关系或丰度分布。它还预测了状态变量的未来时间轨迹。这些新的预测将取决于扰动的性质。因此,从观察到的模式转换中,我们将来可能会在人类世快速变化的生态系统中归结出扰动的具体机械性原因组合。

基于数据的动力学扩展:一个条件马尔科夫的例子

马尔可夫过程(在图1中提到,基于数据的推理,第4行)描述了一个系统的时间演变,当该系统的当前状态是以前一时期的状态为条件的。一个简单的马尔科夫模型产生了一个概率分布,描述了在一个明确的定义中从状态 k 到状态 j 的概率分布,在一个定义明确的时间段,其中"≡"代表定义,它也被称为“短记忆”过程。

在各个学科中,马尔可夫过程被用来模拟动态过程,从物种的种群增长到金融市场中证券的进展,再到等级组织中的晋升。为了计算系统(或系统中的个体)的状态,通常使用条件概率的规则(SI附录,方框S2,公式S7)。在这种过程的一般化和更现实的版本中,过渡也是以环境、经济、物理或其他条件为条件的,允许推断外生力量对过渡概率的因果效应。然而,对于复杂和不断发展的系统,如行为、社会和生态系统,这是一个很难解决的问题,因为我们不知道产生观察信息的基本过程的细节。除了通常的不确定性之外,还有模型的模糊性。这个例子表明,最大熵原理为复杂系统的条件马尔可夫过程建模开辟了道路,这些系统具有连续演变的数据。在SI附录,方框S2中,我们提供了该模型的详细数学表述[16, 34]。

为了推断出稳态过渡概率矩阵,我们需要使用时间序列数据。困难在于,这些数据来自一个不断发展的复杂系统,因此,没有唯一的稳态过渡矩阵。然而,如果我们考虑到约束条件中可能存在的模糊性和不确定性,我们可以得出一个近似的稳态过渡矩阵。它是基于数据的最可能的过渡矩阵,以我们所有的信息为条件,与所有观察到的复杂时间序列数据相一致。

使用的信息是关于每个实体在t时期的状态的时间序列数据 t,以及可能影响实体过渡概率的外生变量的信息。我们通过将 X 的每个元素乘以 X 两边的元素来捕捉观察数据 Y、未知概率 P 和外生信息 X 之间的关系,核心方程见SI附录,方框S2,公式S7,并对实体和时间段进行求和[16]。也就是说,约束条件是以力矩条件指定的。由于模型的模糊性和数据的复杂性,我们还允许约束条件中存在一些附加的不确定性。我们称之为“灵活约束”。

鉴于这些灵活的约束条件(以及通常的归一化),我们的目标是同时推断过渡概率和不确定性(噪声),给定观察到的信息 Y 和 X。如果我们不假设任何关于不确定性的信息,或构建一个似然函数,那么问题是不确定的,但最大熵原理给出了期望的解决方案。要做到这一点,我们需要 P 和不确定性都是概率分布,这样我们就可以定义它们的香农熵。为了将与每个约束条件相关的不确定性转化为概率分布(W),我们遵循参考文献[15, 16,77],将不确定性视为具有概率分布 W 的随机变量(平均值为零)的期望值(SI附录,方框S2,步骤1)。通过这种转换,我们在约束条件下最大化 P 和 W 的联合熵(SI附录,方框S2,公式S8)以获得解决方案。过渡概率(P)、不确定性概率(W)和拉格朗日乘子是在优化过程中同时推断出来的。

然后我们可以评估每个时期 t 的过渡情况。此外,每个外生变量对每个推断出的过渡概率的影响都有一个直接的因果解释:某些外生因素的变化对转移概率的影响。可以计算连续和离散外生变量的因果效应。重要的是,广义的最大熵原理马尔可夫问题与最大熵原理具有相同的维度(约束和拉格朗日乘子的数量)。因此,这里所讨论的广义方法为解决更复杂的问题开辟了道路,而不增加模型的复杂性。与 DynaMETE 和 MET E一样,如果没有不确定性,且系统处于稳定状态,这里讨论的广义方法可简化为经典的最大熵原理或 MaxCal。事实上,MaxCal 是我们这里提出的马尔科夫框架的一个特例。如果确切的动态没有模糊性和不确定性,而且路径(或过渡)不受其他外部因素和复杂数据的制约,那么两者都会收敛到相同的结果[16, 61]。

这个例子展示了信息论框架在基于数据的推理中的主要优势之一,该系统是不断发展的。推断出的解决方案,本案例中的过渡矩阵,是未知真实过程的最佳基于数据的近似理论。它还允许我们进行预测并理解驱动这个系统的力量。这个框架在计算上是高效的,而且易于应用。

在马尔科夫方法和 DynaMETE 这两种将最大熵原理推理扩展到动态的方法中,过渡函数支配着感兴趣的概率分布的时间演变。在马尔科夫方法的例子中,最大熵原理被用来推断过渡矩阵,使用观察到的时间序列数据作为约束。而在 DynaMETE 中,过渡函数对微观层面和宏观层面变量的依赖性被假定为输入,过渡函数对某些概率分布的平均数给出了状态变量的时间依赖性,而状态变量及其时间导数提供了最大熵原理推断更新概率分布的约束。因此,它是一个时间上的迭代过程。在这两种方法中,过渡函数不仅可以是微观层面实体的函数,而且可以是状态变量或其他外生因素的函数。




9. 开放性问题




信息论对建模和推理的发展做出了很大贡献,但它还有很多东西要提供。在应用最大熵原理方面,一个可能的未来进展是我们在这里没有讨论的一类系统。正如上文所强调的,最大熵原理的应用通常是对系统的研究,在这些系统中,宏观和微观层面的描述是自然分离的。然而,一些复杂的系统并不容易被还原成这样的二元结构。例如,地球气候系统中的湍流,本质上是一种多尺度现象。那么,一个开放的问题是,我们如何应用最大熵原理来推断此类系统中任何尺度的分布?

另一个问题是如何扩展该框架,以提高识别约束信息错误指定的能力,并更好地识别基于数据的模型的灵活约束的性质。与此相关的是,提高识别巨大数据集产生的最有用约束的能力,这可能会导致约束数量过大,在未来可能会变得更加重要。这可能需要开发最佳的聚合程序。

最后,我们注意到,我们在上面描述的利用信息论解决动力学问题的两种方法是互补的。DynaMETE 假设了对过渡函数的了解,而马尔科夫方法则是推断这些函数。这两种方法的合成是否可以为研究远离稳态的系统提供一种强大的方法?




10. 小结与结论




对于科学中的所有问题,我们拥有的信息越多,我们能够构建的模型和理论就越好。然而,对于非常复杂的系统,如我们在经济学和生态学中所面临的系统,我们永远不会有足够的信息来明确地预测结果。对于这样的系统,理论和模型的构建是一个欠定的推理问题。然而,如果我们把可用的信息指定为约束条件,并直接建立在最大熵原理之上,我们就能确保在所有与我们所拥有的信息相一致的可能模型中,所选择的模型是偏差最小的。

在我们每个人的体内和周围都是具有巨大复杂性的系统。对我们的生存和福祉至关重要的是充分了解这些系统,以便我们能够做出可靠的预测和设计有效的干预措施。最大熵原理,一种信息论的推理方法,为研究复杂和不断演变的系统提供了一个强大的基础。它是一种从稀疏的、不确定的和异质的信息中提取洞察力的强大方法,也是复杂系统理论构建的一个基础。我们期望最大熵原理推理的应用能够继续扩大复杂科学在学科内和跨学科的前沿。


参考文献

1 J. Skilling, Data analysis: The maximum entropy method. Nature 309, 748–749 (1984).


2 E. T. Jaynes, Information theory and statistical mechanics. Phys. Rev. 106, 620–630 (1957).


3 J. Bernoulli, Ars Conjectandi (Thurneysen Brothers, 1713).


4 T.  Simpson, A letter to the Right Honourable George Earl of Macclesfield,  President of the Royal Society, on the advantage of taking the mean of a  number of observations, in practical astronomy. Philos. Trans. R. Soc. Lond. 49, 82–93 (1755).


5 T. Bayes, An essay towards solving a problem in the doctrine of chances. Philos. Trans. R. Soc. Lond. 53, 37–418 (1764).


6 A. de Moivre, The Doctrine of Chances, or a Method of Calculating the Probabilities of Events in Play (Pearson, 1718).


7 P. S. Laplace, Théorie Analytique des Probabilitis (Gauthier-Villars, ed. 3, 1886).



8 C. E. Shannon, A mathematical theory of communication. Bell Syst. Tech. J. 27, 379–423 (1948).


9 E. T. Jaynes, On the rationale of maximum-entropy method. Proc. IEEE 70, 939–952 (1982).


10 R. D. Levine, An information theoretical approach to inversion problems. J. Phys. Math. Gen. 13, 91–108 (1980).


11 R. D. Levine, M. Tribus, The Maximum Entropy Formalism (MIT Press, 1979).


12 Y. Tikochinsky, N. Z. Tishby, R. D. Levine, Alternative approach to maximum-entropy inference. Phys. Rev. A 30, 2638–2644 (1984).


13 J. Skilling, “The axioms of maximum entropy” in Maximum-Entropy and Bayesian Methods in Science and Engineering, G. J. Erickson, C. R. Smith, Eds. (Springer Netherlands, Dordrecht, the Netherlands, 1988), pp. 173–187.


14 K. M. Hanson, R. N. Silver, Eds., Maximum Entropy and Bayesian Methods (Fundamental Theories of Physics, Springer Netherlands, Dordrecht, the Netherlands, 1996), vol. 79.


15 A. Golan, G. G. Judge, D. Miller, Maximum Entropy Econometrics: Robust Estimation with Limited Data (John Wiley & Sons, 1996).


16 A. Golan, Foundations of Info-Metrics: Modeling, Inference, and Imperfect Information (Oxford University Press, 2018).


17 J. Harte, Maximum Entropy and Ecology: A Theory of Abundance, Distribution and Energetics (Oxford University Press, 2011).


18 J. Harte, K. Umemura, M. Brush, DynaMETE: A hybrid 最大熵原理-plus-mechanism theory of dynamic macroecology. Ecol. Lett. 24, 935–949 (2021).


19 J.  E. Shore, R. W. Johnson, Axiomatic derivation of the principle of  maximum entropy and the principle of minimum cross-entropy. IEEE Trans. Inf. Theory 26, 26–37 (1980).


20 I. Csiszar, Why least squares and maximum entropy? An aximomatic approach to inference for linear inverse problem. Ann. Stat. 19, 2032–2066 (1991).


21 G. B. Arfken, H. J. Weber, Mathematical Methods for Physicists (Elsevier, 2005).


22 J. M. Keynes, A Treatise on Probability (Macmillan, 1921).


23 F. P. Ramsey, “Truth and probability (1926)” in The Foundations of Mathematics and Other Logical Essays, R. B. Braithwaite, Ed. (K. Paul, Trench, Trubner & Co., 1931), pp. 156–198.


24 S. F. Gull, G. J. Daniell, Image reconstruction from incomplete and noisy data. Nature 272, 686–690 (1978).


25 S. F. Gull, T. J. Newton, Maximum entropy tomography. Appl. Opt. 25, 156–160 (1986).


26 R. Kikuchi, B. H. Soffer, Maximum entropy image restoration. I. The entropy expression. J. Opt. Soc. Am. 67, 1656–1665 (1977).


27 J. P. Burg, Maximum Entropy Spectral Analysis (Stanford University, 1975).


28 A. van den Bos, Alternative interpretation of maximum entropy spectral analysis (Corresp.). IEEE Trans. Inf. Theory 17, 493–494 (1971).


29 D. L. Donoho, I. M. Johnstone, J. C. Hoch, A. S. Stern, Maximum entropy and the nearly black object. J. R. Stat. Soc. B 54, 41–81 (1992).


30 A. Zellner, “Bayesian methods and entropy in economics and econometrics” in Maximum Entropy and Bayesian Methods: Laramie, Wyoming, 1990, W. T. Grandy, L. H. Schick, Eds. (Fundamental Theories of Physics, Springer Netherlands, Dordrecht, the Netherlands, 1991), vol. 43, pp. 17–31.


31 T. M. Cover, J. A. Thomas, Elements of Information Theory (Wiley-Interscience, ed. 2, 2006).


32 A. McCallum, D. Freitag, F. C. N. Pereira, “Maximum entropy Markov models for information extraction and segmentation” in Proceedings of the Seventeenth International Conference on Machine Learning (Morgan Kaufmann Publishers Inc., San Francisco, CA, 2000), pp. 591–598.


33 A. Golan, G. Judge, S. Robinson, Recovering information from incomplete or partial multisectoral economic data. Rev. Econ. Stat. 76, 541 (1994).


34 A. Golan, S. J. Vogel, Estimation of non-stationary social accounting matrix coefficients with supply-side information. Econ. Syst. Res. 12, 447–471 (2000).


35 S. J. Phillips, R. P. Anderson, R. E. Schapire, Maximum entropy modeling of species geographic distributions. Ecol. Modell. 190, 231–259 (2006).


36 B. Haegeman, R. S. Etienne, Entropy maximization and the spatial distribution of species. Am. Nat. 175, E74–E90 (2010).


37 K. Nigam, J. Lafferty, A. Mccallum, “Using maximum entropy for text classification” in IJCAI Workshop on Machine Learning for Information Filtering (1999), pp. 61–67.


38 T. Mora, A. M. Walczak, W. Bialek, C. G. Callan Jr., Maximum entropy models for antibody diversity. Proc. Natl. Acad. Sci. U.S.A. 107, 5405–5410 (2010).


39 P.  J. Steinbach, R. Ionescu, C. R. Matthews, Analysis of kinetics using a  hybrid maximum-entropy/nonlinear-least-squares method: Application to  protein folding. Biophys. J. 82, 2244–2255 (2002).


40 M.  Weigt, R. A. White, H. Szurmant, J. A. Hoch, T. Hwa, Identification of  direct residue contacts in protein-protein interaction by message  passing. Proc. Natl. Acad. Sci. U.S.A. 106, 67–72 (2009).


41 F.  Remacle, N. Kravchenko-Balasha, A. Levitzki, R. D. Levine,  Information-theoretic analysis of phenotype changes in early stages of  carcinogenesis. Proc. Natl. Acad. Sci. U.S.A. 107, 10324–10329 (2010).


42 S.  Zadran, F. Remacle, R. Levine, Surprisal analysis of Glioblastoma  Multiform (GBM) microRNA dynamics unveils tumor specific phenotype. PLoS One 9, e108171 (2014).


43 W. Bialek et al., Statistical mechanics for natural flocks of birds. Proc. Natl. Acad. Sci. U.S.A. 109, 4786–4791 (2012).


44 Y. Shemesh et al., High-order social interactions in groups of mice. eLife 2, e00759 (2013).


45 R. J. Williams, Simple 最大熵原理models explain food web degree distributions. Theor. Ecol. 3, 45–52 (2010).


46 R. J. Williams, Biology, methodology or chance? The degree distributions of bipartite ecological networks. PLoS One 6, e17645 (2011).


47 Y.  Roudi, S. Nirenberg, P. E. Latham, Pairwise maximum entropy models for  studying large biological systems: When they can work and when they  can’t. PLoS Comput. Biol. 5, e1000380 (2009).


48 N. Friedman, Inferring cellular networks using probabilistic graphical models. Science 303, 799–805 (2004).


49 T.  R. Lezon, J. R. Banavar, M. Cieplak, A. Maritan, N. V. Fedoroff, Using  the principle of entropy maximization to infer genetic interaction  networks from gene expression patterns. Proc. Natl. Acad. Sci. U.S.A. 103, 19033–19038 (2006).


50 E.  Schneidman, M. J. Berry II, R. Segev, W. Bialek, Weak pairwise  correlations imply strongly correlated network states in a neural  population. Nature 440, 1007–1012 (2006).


51 L.  Meshulam, J. L. Gauthier, C. D. Brody, D. W. Tank, W. Bialek,  Collective behavior of place and non-place neurons in the hippocampal  network. Neuron 96, 1178–1191.e4 (2017).


52 H. Karloff, K. E. Shirley, Maximum Entropy Summary Trees in Computer Graphics Forum 32, No. 3 (Wiley Online Library, 2013), pp. 71–80.


53 J. Harte, E. A. Newman, Maximum information entropy: A foundation for ecological theory. Trends Ecol. Evol. 29, 384–389 (2014).


54 A. Golan, A Discrete Stochastic Model of Economic Production and A Model of Fluctuations in Production—Theory and Empirical Evidence (University of California, Berkeley, CA, 1988).


55 D. K. Foley, A statistical equilibrium theory of markets. J. Econ. Theory 62, 321–345 (1994).


56 A. Golan, J. Bono, Identifying strategies and beliefs without rationality assumptions. https://doi.org/10.2139/ssrn.1611216 (18 May 2010).


57 P. D. Grünwald, A. P. Dawid, Game theory, maximum entropy, minimum discrepancy and robust Bayesian decision theory. Ann. Stat. 32, 1367–1433 (2004).


58 H.  Reiss, A. D. Hammerich, E. W. Montroll, Thermodynamic treatment of  nonphysical systems: Formalism and an example (single-lane traffic). J. Stat. Phys. 42, 647–687 (1986).


59 S. Pressé, K. Ghosh, J. Lee, K. A. Dill, Principles of maximum entropy and maximum caliber in statistical physics. Rev. Mod. Phys. 85, 1115–1141 (2013).


60 H. Haken, Ed., Complex Systems—Operational Approaches in Neurobiology, Physics, and Computers (Springer, Berlin, Germany, 1985).


61 P. D. Dixit et al., Perspective: Maximum caliber is a general variational principle for dynamical systems. J. Chem. Phys. 148, 010901 (2018).


62 Z.  F. Brotzakis, M. Vendruscolo, P. G. Bolhuis, A method of incorporating  rate constants as kinetic constraints in molecular dynamics simulations.  Proc. Natl. Acad. Sci. U.S.A. 118, e2012433118 (2021).


63 R. D. Levine, Information theory approach to molecular reaction dynamics. Annu. Rev. Phys. Chem. 29, 59–92 (1978).


64 R. D. Levine, Molecular Reaction Dynamics (Cambridge University Press, 2005).


65 A. Caticha, The entropic dynamics approach to quantum mechanics. Entropy (Basel) 21, 943 (2019).


66 S. Ipek, A. Caticha, The entropic dynamics of quantum scalar fields coupled to gravity. Symmetry (Basel) 12, 1324 (2020).


67 G. B. West, J. H. Brown, B. J. Enquist, A general model for ontogenetic growth. Nature 413, 628–631 (2001).


68 J. Harte, T. Zillio, E. Conlisk, A. B. Smith, Maximum entropy and the state-variable approach to macroecology. Ecology 89, 2700–2711 (2008).


69 J. Harte, A. B. Smith, D. Storch, Biodiversity scales from plots to biomes with a universal species-area curve. Ecol. Lett. 12, 789–797 (2009).


70 E.  P. White, K. M. Thibault, X. Xiao, Characterizing species abundance  distributions across taxa and ecosystems using a simple maximum entropy  model. Ecology 93, 1772–1778 (2012).


71 X. Xiao, D. J. McGlinn, E. P. White, A strong test of the maximum entropy theory of ecology. Am. Nat. 185, E70–E80 (2015).


72 E.  A. Newman et al., Disturbance macroecology: A comparative study of  community structure metrics in a high‐severity disturbance regime. Ecosphere 11, e03022 (2020).


73 J. Harte, A. Rominger, W. Zhang, Integrating macroecological metrics and community taxonomic structure. Ecol. Lett. 18, 1068–1077 (2015).


74 A. Golan, A multivariable stochastic theory of size distribution of firms with empirical evidence. Adv. Econom. 10, 1–46 (1994).


75 A. Caticha, A. Golan, An entropic framework for modeling economies. Physica A 408, 149–163 (2014).


76 R. D. McKelvey, T. R. Palfrey, Quantal response equilibria for normal form games. Games Econ. Behav. 10, 6–38 (1995).


77 A.  Golan, G. Judge, J. Perloff, A generalized maximum entropy approach to  recovering information from multinomial response data. J. Am. Stat. Assoc. 91, 841–853 (1996).


78 E. Scharfenaker, D. Foley, Quantal response statistical equilibrium in economic interactions: Theory and estimation. Entropy (Basel) 19, 444 (2017).


79 R. A. Kempton, L. R. Taylor, Log-series and log-normal parameters as diversity discriminants for the Lepidoptera. J. Anim. Ecol. 43, 381–399 (1974).


80 S.  Carey, J. Harte, R. del Moral, Effect of community assembly and primary  succession on the species-area relationship in disturbed ecosystems. Ecography 29, 866–872 (2006).


81 S.  R. Supp, X. Xiao, S. K. M. Ernest, E. P. White, An experimental test of  the response of macroecological patterns to altered species  interactions. Ecology 93, 2505–2511 (2012).


82 J. Franzman et al., Shifting macroecological patterns and static theory failure in a stressed alpine plant community. Ecosphere 12, e03548 (2021).


83 N. Goldenfeld, C. Woese, Life is physics: Evolution as a collective phenomenon far from equilibrium. Annu. Rev. Condens. Matter Phys. 2, 375–399 (2011).


(参考文献可上下滑动查看)



集智俱乐部因果涌现社区


跨尺度、跨层次的涌现是复杂系统研究的关键问题,生命起源和意识起源这两座仰之弥高的大山是其代表。而因果涌现理论、机器学习重整化技术、自指动力学等近年来新兴的理论与工具,有望破解复杂系统的涌现规律。同时,新兴的因果表示学习、量子因果等领域也将为因果涌现研究注入新鲜血液。


集智俱乐部特别组织「因果涌现」系列读书会,深入研读相关文献,激发科研灵感。目前已经进行了两季,聚集了500+成员,积累了大量论文解读资料。欢迎感兴趣的朋友报名,加入因果涌现社区,并解锁对应录播权限。

读书会详情与报名方式请参考:

因果涌现读书会启动:连接因果、涌现与自指——跨尺度动力学与因果规律的探索

因果、涌现与机器学习:因果涌现读书会第二季启动





因果与复杂系统特刊征稿




如何从一个复杂系统的原始数据中发现错综复杂的因果结构并识别因果涌现?如何利用因果机制推断系统未来的状态和演化?机器学习、互信息分解、因果推断等新兴技术将为我们提供新的解决方案。由北京师范大学系统科学学院张江教授、清华大学计算机科学学院崔鹏副教授、瑞典卡罗琳斯卡医学院高级研究员 Hector Zenil 合作在 Entropy 杂志发起的 Causality and Complex Systems 特刊正在征稿中,欢迎对相关话题感兴趣的研究者投稿。

期刊:Entropy (ISSN 1099-4300)

特刊主题:因果关系与复杂系统(Causality and Complex Systems)

征稿截止日期:2023年4月25日

特刊链接:

https://www.mdpi.com/journal/entropy/special_issues/causality_complex_systems



推荐阅读

1. Nature Phycics:信息论方法描述高阶相互作用
2. 量化涌现:信息论方法识别多变量数据中的因果涌现
3. 互信息的“微积分”
4. 《张江·复杂科学前沿27讲》完整上线!
5. 成为集智VIP,解锁全站课程/读书会
6加入集智,一起复杂!



点击“阅读原文”,报名读书会

相关阅读

  • MySQL大表优化方案(长文)~~~

  • 原价199元,现在参加拼团活动立享优惠价仅 149 元,赶快一起参团吧!《MySQL数据库底层原理深度剖析》=== 课程内容 ===现在基本上mysql是每一个程序员都必须掌握的技术之一,因此现
  • 近期想跳槽的可以看看~

  • 大家好,最近有不少小伙伴在后台留言,又得准备面试了,不知道从何下手!不论是跳槽涨薪,还是学习提升!先给自己定一个小目标,然后再朝着目标去努力就完事儿了!为了帮大家节约时间,特意找
  • 最通俗的SLAM 技术剖析,必须收藏!

  • 点击下方卡片,关注“新机器视觉”公众号重磅干货,第一时间送达“ 在智能服务机器人逐渐成为行业风口浪尖的今天,移动机器人的身影越来越多地出现在人们身边。相信随着传感技术
  • 最好的缓存数据库,不接受反驳!

  • 最近面试的、跳槽的一波又一波,学习群里也异常活跃,很多小伙伴在里面反馈问题,一起复盘,还是很有收获的。有面了十多家一二线互联网公司的卷王谈到,发现在Java后端面试中,Redis是
  • (周总结173)23年3月19日 持仓本周信息

  • 文: 男终身黑白 语音:女终身黑白终身黑白第855篇原创文章本周定投:本周定投1.5万元,分别买入买入5000元中概互联(513050)、5000元H股ETF(510900)、5000元新能源ETF(516160)。
  • 人们对世界的了解越是粗浅,做决策越是轻易

  • 作者:塔勒布来源:聪明投资者(id:Capital-nature)导读塔勒布是一位数学家型的交易员,是纽约大学的研究员,是有独特的交易策略的投资人,也是一位哲学家,是人们口中的“黑天鹅”之父,也是
  • 十堰规模最大养老机构开工!

  • 十堰广电讯(全媒体记者 陈林 通讯员 吴明)3月19日上午,十堰市民政系统重点项目集中开工暨十堰市“失能失智”老人托养中心项目开工活动在茅箭区天津路民和新村举行。十堰市

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 复杂科学的信息论基础——最大熵原理

  • 导语建模和推断是大多数科学领域的核心,尤其是对不断发展的复杂系统。关键是,我们所拥有的信息往往是不确定的和不充分的,从而导致欠定推理问题(有无穷多解的问题);多种推理、模型
  • 明天夜间有雨夹雪或雪,周六降温!出行请注意

  • 今天17时,北京市气象台发布最新天气预报:今天夜间多云转晴,北风二三级间四级,最低气温4℃;明天白天晴转多云,北转南风二三级,最高气温12℃。夜间气温较低,需注意添衣保暖;明天夜间山
  • 建设农村能源革命试点县!四部门重磅发文

  • ·会议推荐《2022年风光项目开发地图》《2022年企业风光项目清单》咨询电话:18911205173(微信同号)3月23日,国家能源局等四部门发布《国家能源局 生态环境部 农业农村部 国家乡