量化投资百年全史:从概率博弈到硅基金融的进化论

量化投资百年全史:从概率博弈到硅基金融的进化论

摘要

量化投资(Quantitative Investment)的历史是一部人类试图用数学逻辑驯服市场不确定性的宏大史诗。它起源于20世纪初对随机游走的理论猜想,在拉斯维加斯的赌桌上完成了从理论到实践的惊险跳跃,随后在华尔街的交易大厅里引发了数次范式革命。从爱德华·索普(Ed Thorp)的手工算牌到文艺复兴科技(Renaissance Technologies)的黑箱模型,从长期资本管理公司(LTCM)的陨落到高频交易(HFT)对微观结构的重塑,再到如今人工智能(AI)与量子计算(Quantum Computing)的前沿探索,这一历程不仅是技术的迭代,更是金融认识论的深刻转型。本报告将以详尽的史料、深度的技术剖析和前瞻性的视角,全景式呈现量化投资的发生、演变与未来趋势。


第一章 理论奠基:从随机游走到现代投资组合理论(1900s-1950s)

在计算机尚未诞生的年代,量化投资的种子已经埋藏在数学家的手稿之中。这一阶段不仅是工具的准备期,更是金融世界观从“直觉艺术”向“概率科学”转型的漫长前夜。

1.1 孤独的先知:路易·巴舍利耶与随机游走

1900年,法国数学家路易·巴舍利耶(Louis Bachelier)提交了他的博士论文《投机理论》(Théorie de la Spéculation)。在这篇超越时代的著作中,巴舍利耶首次尝试利用布朗运动(Brownian Motion)来描述股票价格的波动。他的核心洞见——“价格变动具有独立增量且服从正态分布”——比爱因斯坦对布朗运动的物理学解释还早了五年。

巴舍利耶的理论在当时被主流经济学界忽视,甚至被认为是不务正业。然而,他实际上奠定了两个至关重要的金融学基石:

  • 市场效率的萌芽:他认为当前价格已经包含了所有已知信息,因此未来的价格变动是随机的(Random Walk)。
  • 期权定价的雏形:他推导出了与后来布莱克-斯科尔斯模型惊人相似的公式,尽管当时并没有相应的金融工具来验证。

直到半个多世纪后,保罗·萨缪尔森(Paul Samuelson)才重新挖掘出这篇论文的价值,尊称巴舍利耶为现代金融学的“教父”。

1.2 马科维茨与“免费午餐”的数学证明

1952年,哈里·马科维茨(Harry Markowitz)发表了里程碑式的论文《投资组合选择》(Portfolio Selection),正式开启了现代投资组合理论(MPT)的大门。在此之前,投资者关注的是单个证券的优劣,投资被视为一种选股的艺术。马科维茨通过引入均值(预期收益)和方差(风险)的概念,将投资决策转化为一个严格的数学规划问题。

马科维茨的贡献在于量化了“风险”。他证明,只要资产间的相关性不为1,通过分散化投资就可以在不降低预期收益的情况下降低组合的整体波动率。这一发现被后世誉为“金融学中唯一的免费午餐”。

MPT为量化投资提供了最初的操作框架:

  • 输入:资产的预期收益率、标准差及协方差矩阵。
  • 处理:二次规划求解。
  • 输出:有效前沿(Efficient Frontier)上的最优权重。

这一理论框架不仅改变了华尔街的思维方式,也为后来以计算机为基础的资产配置模型奠定了算法基础。

1.3 CAPM:Alpha与Beta的分离

继马科维茨之后,威廉·夏普(William Sharpe)等人于1960年代发展了资本资产定价模型(CAPM)。CAPM进一步将风险分解为系统性风险(Beta)和非系统性风险(Alpha)。这一模型对量化投资的演变产生了深远影响:

  • 指数化的理论依据:既然市场组合是最优的,且非系统性风险可以通过分散化消除,那么被动持有市场指数(即获取Beta)就是最理性的选择。
  • 量化主动管理的起点:如果投资者希望战胜市场,就必须寻找那些未能被CAPM解释的超额收益(Alpha)。这激励了后来的量化先驱去挖掘市场定价偏差。

第二章 极客时代:从赌场到交易大厅的跨越(1960s-1970s)

如果说学院派奠定了理论基础,那么以爱德华·索普为代表的实践派则证明了数学模型在实战中的威力。这一时期的量化投资带有浓厚的“极客”色彩,是一场从战胜赌场延伸到战胜华尔街的传奇。

2.1 爱德华·索普:量化投资的开山鼻祖

爱德华·索普(Ed Thorp),一位麻省理工学院的数学教授,被公认为量化投资的教父。他的传奇始于对“不可战胜”游戏的挑战。

  • 战胜赌场:索普利用概率论开发了二十一点的算牌策略(Card Counting),并在1962年出版了畅销书《击败庄家》(Beat the Dealer)。更令人惊叹的是,他与克劳德·香农(Claude Shannon)合作,发明了世界上第一台可穿戴计算机,用于预测轮盘赌小球的落点,从而获得了44%的惊人优势。
  • 进军华尔街:被赌场列入黑名单后,索普将目光转向了世界上最大的赌场——华尔街。他发现权证(Warrants)和期权市场存在大量的定价错误。利用凯利公式(Kelly Criterion)进行资金管理,并结合他自己推导出的期权定价公式(在Black-Scholes发表之前),索普在1969年成立了普林斯顿-纽波特合伙公司(Princeton Newport Partners, PNP)。

PNP的战绩与影响:PNP是历史上第一家真正意义上的量化对冲基金。在近20年的运营中,PNP实现了19.1%的年化复利,不仅大幅跑赢S&P 500指数,而且从未出现过年度亏损。索普形容当时的交易大厅是“火器对阵弓箭”,拥有数学模型的他面对依靠直觉的传统交易员拥有压倒性的不对称优势。他的成功直接启发了后来的肯·格里芬(Ken Griffin,Citadel创始人)和比尔·格罗斯(Bill Gross)等金融巨头。

2.2 期权定价革命与芝加哥的崛起

1973年是量化金融史上的奇迹之年。这一年,费希尔·布莱克(Fischer Black)和迈伦·斯科尔斯(Myron Scholes)发表了著名的期权定价公式(Black-Scholes Model),罗伯特·默顿(Robert Merton)随后对其进行了完善。

BSM模型的出现具有革命性意义:

  • 波动率资产化:它使得波动率(Volatility)成为一种可被精确计价和交易的资产。
  • 风险对冲系统化:通过动态调整股票和无风险资产的比例(Delta Hedging),投资者可以完美复制期权的收益,从而实现无风险套利。

同年,芝加哥期权交易所(CBOE)成立,德州仪器的计算器开始预装BSM公式。量化交易员手持计算器站在交易坑里的画面,成为了那个时代技术与金融融合的缩影。这一时期,量化策略主要集中在可转债套利和期权定价偏差捕捉上,属于典型的“收敛交易”(Convergence Trading)。


第三章 机构化与第一次黄金时代(1980s-1990s)

进入1980年代,随着个人计算机(PC)的普及和计算能力的提升,量化投资开始从个体的天才实验走向机构化运作。摩根士丹利、文艺复兴科技和D.E. Shaw等机构的崛起,标志着量化投资进入了以数据驱动和统计挖掘为特征的第一次黄金时代。

3.1 统计套利的诞生:摩根士丹利的秘密武器

1980年代初,摩根士丹利(Morgan Stanley)组建了一个名为“自动化专有交易”(APT)的秘密小组,由格里·班伯格(Gerry Bamberger)等人领导。他们不再满足于寻找单一资产的定价错误,而是开发了一种基于相关性的新策略——配对交易(Pairs Trading)。

策略逻辑:找出历史上价格走势高度相关的两只股票(如通用汽车与福特)。当它们的价格出现统计学上的显著背离时,买入低估者、卖空高估者。无论市场涨跌,只要两者价格回归正常关系,策略就能获利。

这种策略后来演变为更为复杂的统计套利(Statistical Arbitrage/StatArb)。与传统的无风险套利不同,统计套利依赖于大数定律,通过构建包含数百甚至数千只股票的多空组合,利用微小的统计优势积累利润。这一策略的出现,标志着量化投资从“寻找绝对错误”转向“挖掘统计规律”,并开始大规模应用计算机自动执行交易。

3.2 詹姆斯·西蒙斯与文艺复兴科技的黑箱

1982年,著名数学家詹姆斯·西蒙斯(Jim Simons)创立了文艺复兴科技公司(Renaissance Technologies)。与索普基于经济学原理的模型不同,西蒙斯走上了一条更为激进的道路——纯数据驱动。

大奖章基金的进化

  • 早期摸索:西蒙斯最初尝试基于基本面的交易,并未取得显著成功。他甚至聘请了密码学家伦纳德·鲍姆(Leonard Baum),利用隐马尔可夫模型(Hidden Markov Models)来寻找市场状态的转移。
  • 范式转移:1988年大奖章基金成立后,西蒙斯与埃尔温·伯勒坎普(Elwyn Berlekamp)等人决定彻底摒弃经济学直觉,完全依赖计算机从海量历史数据中挖掘非线性的、人脑无法理解的模式。他们发现,价格不仅仅受宏观经济影响,还受到微观市场结构、投资者行为偏差等无数微小因素的驱动。

惊人回报:通过高频交易和隐蔽的信号挖掘,大奖章基金在1988年至2018年间实现了年化66%(费前)的惊人回报,且在大萧条和危机中表现尤为出色。西蒙斯的成功确立了“黑箱”学派的地位:不需要理解“为什么”价格会变动(Why),只需要知道“如何”预测变动(How)。这为后来的机器学习在金融中的应用埋下了伏笔。

3.3 程序化交易与1987年股灾的争议

1980年代也是“程序化交易”(Program Trading)概念普及的时期。当时的程序化交易主要指利用计算机自动执行的一篮子股票交易,最典型的是指数套利(Index Arbitrage):在S&P 500期货价格与现货价格出现偏离时,通过计算机快速买入一篮子股票并卖空期货。

黑色星期一的教训:1987年10月19日,道琼斯指数单日暴跌22.6%。虽然事后研究表明程序化交易并非崩盘的唯一原因,但当时流行的“投资组合保险”(Portfolio Insurance)策略——一种动态对冲机制,要求在市场下跌时自动卖出期货以锁定价值——被认为加剧了市场的螺旋式下跌。这次事件让监管层和公众首次意识到了算法交易对市场流动性和稳定性的系统性影响,也促使交易所引入了熔断机制。


第四章 狂妄与惩罚:LTCM的兴衰与模型风险(1994-1998)

1994年成立的长期资本管理公司(LTCM)一度被视为量化投资的巅峰,其实验的失败也成为了金融史上最昂贵的一堂风险管理课。

4.1 梦之队的崛起

LTCM由所罗门兄弟的前高管约翰·梅里韦瑟(John Meriwether)创立,其合伙人名单堪称全明星阵容,包括诺贝尔经济学奖得主罗伯特·默顿和迈伦·斯科尔斯,以及前美联储副主席大卫·穆林斯。

核心策略:收敛套利

LTCM主要从事固定收益套利,即利用流动性较差的资产(如旧国债)与高流动性资产(如新发行国债)之间的微小利差进行套利。由于这些利差极小,LTCM必须使用极高的杠杆(一度超过25:1,名义本金敞口达1.25万亿美元)来放大收益。在最初几年,这种策略无往不利,被认为是用“吸尘器捡硬币”。

4.2 1998年:相关性崩溃与流动性黑洞

1998年8月,俄罗斯政府宣布债务违约,这一“黑天鹅”事件引发了全球市场的恐慌。LTCM的模型假设市场波动服从正态分布,且不同市场之间的相关性是稳定的。但在极端恐慌下,所有资产的相关性趋近于1("Flight to Quality"),原本不相关的资产同时下跌。

更为致命的是流动性风险。LTCM持有的非流动性资产无法抛售,而对冲用的流动性资产价格却在飙升,导致双边亏损。正如凯恩斯所言:“市场保持非理性的时间可能比你保持偿付能力的时间更长。”LTCM最终由美联储组织各大银行接管,避免了系统性崩溃。

LTCM事件的深远启示

  • 厚尾风险(Fat Tails):正态分布模型低估了极端事件发生的概率。现实市场的分布往往具有“尖峰厚尾”特征,3个标准差以外的事件发生频率远高于模型预测。
  • 内生性风险:当所有量化基金都采用相似的策略(拥挤交易)时,一旦有人平仓,就会引发连锁反应。这种“流动性螺旋”是量化危机的典型特征。

第五章 速度竞赛与结构性变革:从高频交易到量化地震(2000-2010)

进入21世纪,随着市场微观结构的变化和电子通信网络(ECN)的兴起,量化投资进入了以“速度”为核心的军备竞赛阶段。

5.1 2001年小数化改革与HFT的爆发

2001年,美国股市实施了小数化报价(Decimalization),将最小报价单位从1/16美元(6.25美分)改为1美分。这一看似微小的改革产生了巨大的蝴蝶效应:

  • 做市商利润压缩:传统的人工做市商无法依靠1美分的价差生存,被迫退出。
  • 高频交易(HFT)崛起:机器取代了人类。依靠极高的交易量和亚毫秒级的速度,HFT公司(如Virtu, Jump Trading, Getco)通过提供流动性赚取微薄的价差。

技术军备竞赛:2000年至2010年间,HFT经历了爆发式增长。为了争取微秒(百万分之一秒)的优势,HFT公司开始在交易所数据中心进行主机托管(Co-location),并使用FPGA硬件加速交易逻辑。到2009年,HFT已占据美国股市交易量的一半以上。

5.2 2007年8月:神秘的“量化地震”

在2008年全球金融危机爆发前一年,量化界经历了一场诡异的“地震”(Quant Quake)。2007年8月6日至10日,许多业绩优异的股票中性策略(Equity Market Neutral)基金突然遭遇巨额回撤,而当时大盘并未出现明显波动。

去杠杆假说(Unwind Hypothesis):事后研究表明,这可能源于某一大型多策略基金(据推测可能是受到次贷危机波及的银行自营部门)急于去杠杆,被迫平仓其流动性最好的量化股票组合。由于各大量化基金使用的因子模型(如价值、动量)高度重叠(Crowded Trades),大规模抛售引发了多米诺骨牌效应:所有持有类似因子的基金都被迫止损,导致价格进一步偏离价值。三天内,标准普尔500指数基本持平,但量化基金的净值却大幅跳水。这次事件是量化策略同质化风险的第一次大规模预演。

5.3 2008年金融危机中的量化角色

虽然2008年危机的根源在于次贷和监管缺失,但量化模型在其中也难辞其咎。

  • 高斯联结函数(Gaussian Copula)的滥用:大卫·李(David Li)引入的这一公式被广泛用于CDO(债务担保证券)的定价。该模型极大地简化了违约相关性的计算,使得评级机构能够给包含高风险贷款的CDO打上AAA评级。然而,该模型低估了房价下跌时违约的系统性关联。
  • 流动性枯竭:危机期间,HFT和量化做市商迅速撤单,导致市场流动性瞬间消失,加剧了价格崩盘。

危机后,监管机构加强了对算法交易的管控,包括后来的《监管SCI》(Reg SCI)和欧盟的MiFID II,要求对算法进行严格测试和风险控制,防止“闪崩”(Flash Crash)重演。


第六章 Alpha的工业化:Smart Beta与因子投资(2010s)

2008年危机后,投资者对高收费的主动管理基金产生质疑,同时也不满足于仅仅获得市场平均收益(Beta)。这催生了“Smart Beta”和因子投资(Factor Investing)的黄金十年,标志着Alpha的平民化和工业化。

6.1 从学术发现到ETF产品

因子投资的理论基础可以追溯到Fama-French三因子模型(1993),即除了市场Beta外,市值(Size)和价值(Value)也是解释回报的长期驱动力。2010年代,随着贝莱德(BlackRock)、Invesco等资管巨头的大力推广,基于因子的ETF产品(如低波、红利、动量、质量等)开始爆发。

Alpha的Beta化:过去,量化对冲基金通过暴露于这些因子获取高昂的业绩报酬(2/20费率)。Smart Beta产品的出现,使得普通投资者可以通过极低成本(如0.1%费率)获取这些系统性超额收益。Smart Beta ETF的资产管理规模(AUM)在2010年至2020年间飞速增长,SPY等核心ETF更是屡创规模新高,到2024年全球ETF规模已达13.8万亿美元。

6.2 因子拥挤与“因子动物园”

随着大量资金涌入Smart Beta,经典的因子效应开始减弱。

  • 因子拥挤(Factor Crowding):当所有人都买入“低波动”或“价值”股时,这些股票的价格被推高,未来的预期收益下降,甚至出现反转。
  • 数据挖掘偏差:学术界发现了数百个所谓的“异象”(Anomalies),被称为“因子动物园”(Factor Zoo)。然而,许多因子只是数据挖掘(p-hacking)的产物,在样本外测试中完全失效。

这迫使顶级量化机构(如Two Sigma, Citadel)不断寻找新的、未被公开的因子,或者采用更复杂的因子择时(Factor Timing)策略,从而推动了下一阶段——另类数据和AI的引入。


第七章 信息革命:另类数据与Quantamental的兴起(2015-Present)

当传统的价格量和财务报表数据被挖掘殆尽,量化投资的竞争前沿转移到了另类数据(Alternative Data)。

7.1 数据的爆发式增长

2015年左右,随着大数据技术的成熟,对冲基金开始大规模采购和处理非传统数据源。这些数据提供了比财报更及时、更颗粒度的视角。

数据类型数据来源典型应用场景
地理空间数据卫星图像、无人机拍摄监测商场停车率预测零售营收;监测储油罐阴影计算原油库存
交易数据信用卡流水、POS机数据实时跟踪消费趋势,精准预测上市公司季度营收
网络数据网页抓取、App使用时长监控电商价格变动(CPI预测);分析App活跃度(科技股估值)
文本数据新闻、社交媒体、财报会议情绪分析(Sentiment Analysis),捕捉市场舆情
物流数据航运跟踪、供应链数据预测大宗商品流动和全球贸易趋势

发展时间线:2000-2015:萌芽期,少数先驱(如RenTec)私下使用。2015:爆发点,《华尔街日报》报道让“另类数据”进入大众视野。2020:疫情加速期。由于传统宏观模型在疫情封锁期间失效,实时的高频另类数据(如交通流量、订餐数据)成为投资者的救命稻草。

7.2 Quantamental:人机结合的新范式

另类数据的复杂性促成了“量化基本面”(Quantamental)的趋势。传统的基本面基金经理(Fundamental)开始引入数据科学团队来处理海量数据,而量化基金(Quant)也开始试图通过数据理解宏观经济和公司运营的深层逻辑。这种融合旨在结合机器处理海量信息的能力与人类对因果关系和非结构化语境的理解力,打破了过去“量化”与“主观”的泾渭分明。


第八章 人工智能时代:深度学习、NLP与大模型(2018-2025)

近年来,机器学习(ML)特别是深度学习(DL)技术的突破,正在重塑量化投资的方法论,使其从简单的统计回归迈向智能预测。

8.1 从统计学习到深度学习

早期的量化模型多基于线性回归(Linear Regression)和时间序列模型(ARIMA)。然而,金融市场充满了非线性和复杂的交互作用。

  • LSTM与RNN:长短期记忆网络(LSTM)开始被用于处理时间序列预测,展现出优于传统模型的记忆能力,能够捕捉长期的市场依赖关系。
  • Transformer架构:2024年的最新研究表明,基于Transformer架构的模型(如FinCast, MAT)在捕捉多模态数据(价格+新闻+宏观)方面已达到SOTA(State-of-the-Art)水平。这些模型引入了注意力机制(Attention),能够识别市场中哪些信息是关键的。

8.2 NLP与非结构化数据挖掘

自然语言处理(NLP)技术的进步,使得计算机能够“阅读”并理解人类语言。BERT、FinBERT等模型被广泛用于分析美联储会议纪要、财报电话会议(Earnings Call)和社交媒体帖子。

  • 情绪分析:不仅判断利好利空,还能识别管理层的语调变化(犹豫、自信)。
  • 主题建模:自动归纳市场关注的焦点(如从“通胀”转向“衰退”)。

8.3 生成式AI与智能代理(Agents)

2023年以来,以ChatGPT为代表的大语言模型(LLM)引发了新的变革。在2024-2025年的金融应用中,LLM不仅被用作信息提取工具,更开始扮演**智能代理(Agents)**的角色。

  • Alpha生成:LLM可以辅助编写策略代码、生成宏观分析报告,甚至作为“预测者”直接参与投资决策。
  • 自主迭代:最新的研究方向是让AI代理自主进行回测、优化参数并管理风险,尽管这一领域的“幻觉”风险(Hallucination)仍需严格的人工监督。

麻省理工学院教授Andrew Lo指出,LLM有望弥合量化与基本面投资之间最后的鸿沟,处理那些过去只有人类才能理解的复杂语境和隐喻。


第九章 新前沿:加密货币、MEV与量子金融(2025及未来)

量化投资的疆域从未停止扩张,当前的前沿正延伸至去中心化金融(DeFi)的黑暗森林和量子计算的算力巅峰。

9.1 加密货币与MEV:区块链上的高频战争

加密货币市场的高波动性、全天候交易和碎片化流动性,使其成为量化策略的天然试验场。除了传统的趋势跟踪和统计套利外,DeFi催生了一种全新的、纯粹基于代码逻辑的套利形态——最大可提取价值(MEV, Maximal Extractable Value)。

MEV的工作原理

在区块链上,交易在被打包进区块之前会停留在内存池(Mempool)中。MEV机器人监控这一公开区域,利用交易排序权进行套利:

  • 三明治攻击(Sandwich Attacks):当侦测到一笔大额买单时,机器人在其之前买入(推高价格),并在其之后卖出,无风险赚取差价。
  • 套利与清算:在不同去中心化交易所(DEX)之间瞬间搬砖。

这实质上是传统HFT在区块链世界的变体,但竞争更为透明且残酷。2025年的数据显示,MEV套利已成为加密市场流动性的重要组成部分,但也因其“隐形税”属性引发了广泛的伦理和技术讨论。

9.2 量子金融:算力的终极飞跃

随着摩尔定律的放缓,量子计算被视为打破算力瓶颈的关键。JP Morgan、高盛(Goldman Sachs)等顶级投行已在2024-2025年间积极布局量子金融,并在特定的硬件架构(如离子阱和光量子)上取得了进展。

量子优势的潜在应用

  • 投资组合优化:利用量子退火(Quantum Annealing)解决传统计算机难以在多项式时间内处理的组合优化问题(NP-Hard问题),在成千上万种资产中寻找绝对最优解。
  • 蒙特卡洛模拟加速:在衍生品定价和风险管理(VaR计算)中,量子算法(如Quantum Amplitude Estimation)有望实现二次方级别的加速,将计算时间从数小时缩短至数秒。

尽管目前仍处于含噪声中等规模量子(NISQ)时代,但行业普遍预测,随着纠错技术的成熟,量子金融将在未来十年内逐步落地,为拥有这一技术的机构带来巨大的竞争护城河。


结论:演变中的不变

回顾量化投资的百年历史,我们可以清晰地看到一条演进脉络:

  • 数据维度的扩张:从单一的价格收盘价,到高频的分笔数据,再到卫星、文本等全模态数据。
  • 计算能力的飞跃:从巴舍利耶的手算,到索普的可穿戴电脑,再到GPU集群和未来的量子计算机。
  • 模型的复杂化:从线性回归到随机微分方程,再到深度神经网络和Transformer。
  • 速度的极致化:从场内喊价到纳秒级的高频交易,再到原子级的区块排序。

然而,在这不断变化的技术外衣下,量化投资的核心逻辑始终未变:在不确定性中寻找确定性的概率优势(Edge),利用市场暂时的无效性进行套利,并通过严格的风险管理长期生存。LTCM的陨落和2007年的量化地震警示我们,模型永远是对现实的简化,而非现实本身。随着AI代理的自主化和量子算力的介入,量化投资将进入一个更加智能化、自动化的新阶段。在这个新时代,技术的壁垒将更高,但对市场人性的洞察和对模型风险(Model Risk)的敬畏,依然是每一位量化投资者不可或缺的压舱石。


表2:量化投资技术与策略演进表

时代核心技术/工具主流策略代表性人物/机构标志性事件
1900-1950s概率论、微积分理论推导、分散化投资Bachelier, Markowitz《投机理论》、MPT提出
1960-1970s早期计算机、凯利公式权证套利、期权定价Ed Thorp, Black-Scholes战胜赌场、期权交易所成立
1980s个人电脑、电子表格配对交易、统计套利Morgan Stanley (APT), RenTec1987股灾、大奖章基金成立
1990s工作站、VaR模型收敛套利、固定收益套利LTCM, D.E. ShawLTCM倒闭、电子化交易萌芽
2000s低延迟网络、FPGA高频交易 (HFT)、做市Virtu, Jump Trading小数制改革、2007量化地震
2010s大数据处理、云计算Smart Beta、因子投资BlackRock, VanguardETF规模爆发、因子拥挤
2020s深度学习、NLP、GPU另类数据挖掘、QuantamentalTwo Sigma, WorldQuant疫情期间另类数据爆发
2025+LLM、量子计算、区块链AI Agents、MEV、量子优化OpenAI, JPMorgan, DeFi Bots生成式AI辅助投研、量子霸权探索

来源:https://vestlab.beikee.org/

评论