您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[东证期货]:基本面量化专题报告:从信息论探究高阶相互作用之股债 - 发现报告
当前位置:首页/其他报告/报告详情/

基本面量化专题报告:从信息论探究高阶相互作用之股债

2024-09-11章顺东证期货H***
基本面量化专题报告:从信息论探究高阶相互作用之股债

专题报告-基本面量化 从信息论探究高阶相互作用之股债 报告日期:2024年9月11日 章顺资深分析师(多元资产) 从业资格号:F0301166 投资咨询号:Z0011689 Tel:8621-63325888-3902 ★摘要: 一般,复杂系统可以是存在相互作用的多变量系统,而信息论是理解变量之间关系的重要理论。Rosas等人提出的部分信息分解框架(PID),将多变量之间的互信息分解为各种信息原子,包括冗余信息、协同信息和特有信息,并在此基础上进一步提出整合信息分解框架(ΦID),能够把整个过剩熵分解成若干个信息原子,ΦID框架的冗余晶格共有16个信息原子,包含六种不同 期的信息动力学模式。我们在应用ΦID框架时,主要测试股债系统的协同信息,具体测试结果如下: 货首先,我们基于股债系统的协同信息分别测试沪深300和十年 综国债的择时效果,日线级别测试胜率最高超过60%,部分测试情 合形累计收益随时间总体处于逐步上升的态势,国债测试效果整体优于沪深300; 其次,股债系统的协同信息序列的波峰和波谷作为变盘点,如果区分波峰与波谷并进行独立测试,测试效果降低,把波峰和波谷合并为极值点的测试效果更优; 最后,对比股债,同样是测试胜率比较高的情形,沪深300的斜率参数高于十年国债,两者波动周期存在差异,我们在《基于复杂系统幂律特征构建择时模型》中已经得出相关结论。 我们的测试表明借助信息论研究系统的高阶相互作用是有意义的。接下来,我们将会把ΦID框架应用到大宗商品等多资产的系统中,进一步测试高阶相互作用在金融择时中的应用。 Email:shun.zhang@orientfutures.com 重要事项:本报告版权归上海东证期货有限公司所有。未获得东证期货书面授权,任何人不得对本报告进行任何形式的发布、复制。本报告的信息均来源于公开资料,我公司对这些信息的准确性和完整性不作任何保证,也不保证所包含的信息和建议不会发生任何变更。我们已力求报告内容的客观、公正,但文中的观点、结论和建议仅供参考,报告中的信息或意见并不构成交易建议,投资者据此做出的任何投资决策与本公司和作者无关。 有关分析师承诺,见本报告最后部分。并请阅读报告最后一页的免责声明。 目录 1、信息论与复杂系统4 2、整合信息论的相关原理4 2.1、互信息4 2.2、整合信息论5 2.3、部分信息分解6 2.4、整合信息分解6 2.4.1、ΦID框架简介7 2.4.2、整合信息分解7 2.4.3、ΦID框架在复杂系统中的信息处理10 3、基于ΦID框架实证分析股债之间的高阶相互作用11 3.1、数据及其说明11 3.2、测试的流程及参数说明11 3.3、系统协同性的择时测试12 3.3.1、股债协同在极值点的实证测试12 3.3.2、股债协同在波峰的实证测试14 3.3.3、股债协同在波谷的实证测试16 4、结论及展望19 5、参考文献19 2期货研究报告 图表目录 图表1:PID框架的冗余格8 图表2:ΦID框架的冗余格9 图表3:数据明细11 图表4:股债相互作用在极值点的实证分析结果12 图表5:沪深300与十年国债的ΦID协同序列(144个交易日滚动)13 图表6:沪深300在协同极值点的测试(斜率21)13 图表7:沪深300在协同极值点的测试(斜率34)13 图表8:沪深300在协同极值点的测试(斜率89)14 图表9:国债在协同极值点的测试(斜率13,左%)14 图表10:国债在协同极值点的测试(斜率21,左%)14 图表11:国债在协同极值点的测试(斜率55,左%)14 图表12:股债协同在波峰的实证分析结果15 图表13:沪深300在协同波峰处的测试(斜率13)15 图表14:沪深300在协同波峰处的测试(斜率21)15 图表15:沪深300在协同波峰处的测试(斜率89)16 图表16:国债在协同波峰处的测试(斜率13,左%)16 图表17:国债在协同波峰处的测试(斜率21,左%)16 图表18:国债在协同波峰处的测试(斜率55,左%)16 图表19:股债协同在波谷的实证分析结果17 图表20:沪深300在协同波谷处的测试(斜率13)17 图表21:沪深300在协同波谷处的测试(斜率21)17 图表22:沪深300在协同波谷处的测试(斜率89)18 图表23:国债在协同波谷处的测试(斜率13,左%)18 图表24:国债在协同波谷处的测试(斜率21,左%)18 图表25:国债在协同波谷处的测试(斜率55,左%)18 1、信息论与复杂系统 说到信息论,都离不开香浓(Shannon),香农于1948年10月发表的论文《AMathematicalTheoryofCommunication》被认为现代信息论研究的开端。在该文中,香农给出了信息熵的定义。 我们在之前有关熵和因果涌现的报告都是信息论的范畴。神经科学家GiulioTononi的整合信息论(IntegratedInformationTheory)是信息论的延伸,整合信息论认为意识是大脑神经活动的一种涌现结果。在《从因果涌现的视角挖掘择时模型》中,ErikHoel和GiulioTononi共同提出的因果涌现理论是对整合信息论的一个扩展。除了ErikHoel的因果涌现框架以外,Rosas的信息分解(PartialInformationDecomposition)框架是对Shannon的互信息(MutualInformation)进一步地拆分,用协同(Synergy)、冗余(Redundency)和特有(Unique)这三种度量尝试刻画多变量系统的复杂关系。这里提到的互信息是信息熵的变形,是衡量两个随机变量之间相互依赖性的指标。 一直以来,信息论广泛应用于复杂系统的研究。不论是信息整合,还是信息分解,都是互信息的扩展,研究系统的高阶相互作用。Rosas等人在2021年基于信息分解理论提出了融合整合信息论的信息分解框架ΦID。接下来,我们将基于ΦID探究股债的高阶相互作用。 2、整合信息论的相关原理 2.1、互信息 香浓熵(ShannonEntropy),简称信息熵,是由克劳德·香农(ClaudeShannon)在1948年提出的概念,用于量化信息的不确定性或信息的混乱程度。它是信息论中的一个核心概念,广泛应用于通信、数据压缩、机器学习等领域。 互信息(MutualInformation,MI)是信息论中的一个概念,是信息熵的扩展,用于衡量两个随机变量之间的相互依赖性。如果两个变量是独立的,那么它们之间的互信息为零。互信息的值越大,表明两个变量之间的相互依赖性越强。 互信息的数学定义是两个变量联合分布与各自边缘分布乘积的熵之差,即:MI(X;Y)=H(X)+H(Y)−H(X,Y) 其中: H(X)是随机变量X的熵,表示X的不确定性。 H(Y)是随机变量Y的熵。 H(X,Y)是随机变量X和Y的联合熵,表示两个变量共同的不确定性。互信息也可以通过最大化条件熵来定义: MI(X;Y)maxp(y|x)H(Y|X) 这里H(Y|X)是给定X的条件下Y的条件熵。 在机器学习和统计建模中,互信息是一个有用的度量,因为它可以帮助识别数据集中哪些特征与目标变量有较强的相关性,从而在特征选择和模型构建中起到指导作用。此外,互信息也常用于评估通信系统的效率,以及在自然语言处理中评估语义相似度等。 2.2、整合信息论 IntegratedInformationTheory(IIT)(整合信息理论)是一种理论框架,旨在解释意识如何从物理过程中产生,它是由神经科学家GiulioTononi提出的。 IIT3.0是该理论的一个较新版本,它在先前版本的基础上进行了改进和扩展,GiulioTononi及其同事在2014年的论文《Fromthephenomenologytothemechanismsofconsciousness:IntegratedInformationTheory3.0》中进行了详细阐述。 整合信息论是一种理论框架,用于量化意识和认知系统中的整合信息,旨在解释意识如何从物理过程中产生。整合信息论的核心概念是“φ”(Phi),它量化了一个系统内部的整合信息量。φ度量了当一个系统通过其各组成部分之间的因果相互作用进入一个特定状态时所产生的信息量(减少的不确定性),超过了各个部分独立生成的信息量。这种数学上的表征是基于整合信息捕获意识的两个关键现象性质的观察结果: (1)存在一个大量的意识体验集合,所以当一个特定体验发生时,它排除了所有其他体验从而产生了大量信息; (2)这些信息是整合的,即每一个体验都表现为一个不能分解为独立部分的整体。 Φ的计算涉及一系列步骤,主要用于评估一个系统或系统内的子集在多大程度上能够整合信息。Phi的值代表了系统作为一个整体相对于其各部分独立操作时所产生的信息量。以下是一些计算Phi的基本步骤: 定义系统:首先定义系统X,这个系统可以是由多个元素组成的网络。对于系统X中的每个元素,确定它们之间的连接方式,这些连接可以通过连接矩阵CON(X)来表示。 构建子集:考虑系统X中的所有可能子集S,从包含两个元素的子集开始,一直到包含整个系统的子集。 确定子集的连接模式:对于每个子集S,计算所有可能的二分(bipartitions)[A:B]。这里的二分意味着将子集S分成两部分A和B。 计算有效信息:对于每种二分,计算有效信息EI(A∣B)。有效信息指的是系统的一部分A在另一部分B的存在下所能产生的信息量。有效信息的计算需要基于系统当前状态的概率分布以及系统在没有B的情况下A的状态概率分布。 找到最小信息二分:确定哪一个二分MIB(S)使得归一化后的有效信息 EI(A∣B)/min[Hmax(A),Hmax(B)]达到最小。这里Hmax表示最大熵。 计算Phi值:对于最小信息二分MIB(S),计算EI(MIB(S))的值,这就是子集S的 Phi值。 识别复形:如果一个子集S的Phi值大于零,并且不是包含在另一个Phi值更高的子集中的,那么这个子集S就被称为复形。整个系统中Phi值最大的复形被称为主复形。 优化和参数化:通过调整系统中的参数(如连接强度),可以优化网络以提高Phi值。此外,通过参数化改变网络的拓扑结构,可以研究不同连接模式对Phi值的影响。 需要注意的是,随着系统的规模增长,计算Phi的难度也会增加。因此,对于较大的系统,可能需要使用启发式搜索算法来帮助分析。此外,计算Phi时还需要考虑到噪声水平和其他因素,例如信号与噪声比(SNR),以及系统内部和外部的连接模式。 2.3、部分信息分解 在多变量信息理论中,PaulL.Williams和RandallD.Beer的《NonnegativeDecompositionofMultivariateInformation》是一种尝试解决传统多变量互信息(interactioninformation)可能为负的问题的方法。传统互信息在扩展到三个或更多变量时,可能会产生负值,这在信息量的解释上是不清楚的。为了解决这个问题,研究者们重新考虑了一组源变量对给定变量提供信息的一般结构,并提出了一种新的冗余度量方法。 具体来说,这种新方法从每个可能结果的最小信息量开始,这个信息量是任何源对变量结果的平均信息量。然后,利用这种冗余度量,构建了一个源集的格(lattice)结构,以阐明多变量信息的一般结构。最终,研究者们提出了一种部分信息原子(partialinformationatoms)的定义,这些原子可以完全分解多变量系统中的香农信息,并且用源子集之间的冗余度来表示这些信息。与互信息不同,这种部分信息分解的原子从不为负,并且始终支持清晰的信息量解释。 此外,这种分解方法还展示了如何解释互信息的负值问题,即互信息将冗余和协同作用混淆了。例如,在三个变量的情况下,如果一个变量提供了另外两个变量所没有的信息 (独特信息),或者两个变量提供了相同的