金融高频数据计量——理论与实证

http://blog.charmpeach.com/investment/%e9%87%91%e8%9e%8d%e9%ab%98%e9%a2%91%e6%95%b0%e6%8d%ae%e8%ae%a1%e9%87%8f-%e7%90%86%e8%ae%ba%e4%b8%8e%e5%ae%9e%e8%af%81%ef%bc%88%e4%b8%80%ef%bc%89/1069/

本系列以 Hautsch, N. (2011). Econometrics of financial high-frequency data. Springer Science & Business Media 为主要参考资料,作为本系列第一篇,主要介绍一下背景和概要。

这一系列同我其他技术文章的初衷一样,也是一是希望加深自己的学习,记录下研究的过程,二是希望对大家的学习有所帮助。形式上以翻译原著为主,但不求逐字逐句,同时会补充一些其他资料,最新的数据和一些我的个人见解。比如实证部分, 我会以中文读者比较关心的中国、香港和美国资本市场为例,并且将用到R的代码开源到 GitHub上,并在最后打包发布(如果不烂尾的话 : – ))。但限于本人水平,错误难免,文中还可能会时不时的出现英文单词,其本意并非我想掉个洋书袋,而恰恰是我英文水平有限,没办法简洁而准确地翻译出来,我会尽量避免,欢迎大家指正和交流。
是一次非常偶然的机会, 宋斌教授推荐了《Econometrics of Financial High-Frequency Data》这本书给我,她作为中央财经大学投资系系主任,量化投资和高频交易也是她的研究方向之一,我自然是会对这本书特别关照,所以也就有了这个系列的文章,在此也很感谢宋老师的指导!
关于版权问题,我的文章欢迎转载,注明出处即可。但是我并没有版权方的相关授权,而且理论部分的很多篇幅会直接引用或译自书中,我不太清楚是否会造成侵权,如有侵权,请联系我,我会及时删除相关内容,希望大家购买正版书籍
以上算是前言、致谢和Copyleft的声明,下面进入正文。

交易系统的技术不断发展, 高频数据记录不断完善,以及日内交易的流行、订单执行优化等问题催生了高频计量的发展。由于高频交易创造的稳定和丰厚的利润,很多机构都开始使用高频交易,根据 Lati, R. (2009) 的数据,2009年,在美国20,000支基金中只占2%的高频基金贡献了市场73%的交易量!学术界和产业界主要关注的问题之一 就是,高频粒度的市场结构和交易过程一直在不断变化。这是由于电子交易平台的发展使得交易量、交易速度不断提升,投资者采用各种各样的交易策略、订单管理策略,以及各种策略之间的相互竞争作用、不同交易所的规则等等,这些都对高频计量的建模造成了很大的挑战。通过对交易数据和订单数据的建模,我们可以分析交易所规则对交易的影响,对交易量、波动率、订单簿深度等进行预测,寻找最优下单策略、减少市场冲击和交易成本,评估流动性和价格等风险,统计资产和市场的相关性。

区别于一般计量和统计模型的是,高频数据是不规则地分布于时间轴上,在传统计量模型上时序分析的经典理论 Box (2015), 何书元 (2003), Hamilton (1995),都是建立在采样点是均匀分布于时间轴这一假设之上,时间间隔作为trivial变量被忽略了。但实际上,市场事件(订单、交易等等)发生的间隔时间不仅携带信息而且十分重要,它可以作为市场活跃程度的度量并会影响交易价格和交易量。将这一时间特征考虑进去就是点过程(Point Process),它不仅刻画了事件在时间轴上随机出现的性质,也包含了事件本身的特征、历史数据等相互之间关系。2003年诺贝尔经济学奖获得者 Robert F. Engle 在1996年首次提出了点过程的在计量模型中的重要性,他的论文 Engle (2000) 也被认为是高频计量快速发展的开端。

除此之外,价格、交易量、买卖价差等很多数据都是离散的,而非连续的。同时,大部分数据都是正值,数据之间常常是持续正相关 (positively autocorrelated, strongly persistent),在同一天表现出不同的周期性。还有就是交易过程、订单过程都是高维和复杂的动态结构。所有这些,都要求我们在传统计量基础上发展新的理论与实证方法。

本书也即本系列的文章的主要目的是对最新和最重要的高频计量方法做一个介绍,包括对市场微观结构的分析,对波动率、流动性等建模及其实现。要对高频数据进行建模,很重要的一点是要准确地刻画数据的动态特征,所以自回归条件均值 (autoregressive conditional mean) 模型会起到很大作用,其背后的思想就是将条件均值作为自回归模型。在此基础上又衍生出了MEMs (multiplicative error models) 一类模型,用于刻画交易间间隔的 ACD (autoregressive conditional duration) 模型,用于刻画计数数据的 ACP (autoregressive conditional poisson) 模型等等。这些模型都可以用于刻画高频数据的非线性动态特征、持久依赖 (long range dependence),也可以扩展到多元模型。高频计量的方法论的核心是(随机)密度函数的动态模型,这也是点过程的核心,其含义是在给定历史数据和观测变量的条件下,事件发生的频率,可以通俗地理解为条件概率。为了对高维的交易和订单的动态过程进行降维,基于因子的建模方式也十分重要。以上这些模型、应用和实证数据都会在接下来一一展开。

祝福我不要鸽!



Reference:
Box, G. E., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time series analysis: forecasting and control. John Wiley & Sons.
Engle, R. F. (2000). The econometrics of ultra‐high‐frequency data. Econometrica68(1), 1-22.
Hamilton, J. D. (1995). Time series analysis. Economic Theory. II, Princeton University Press, USA, 625-630.
Hautsch, N. (2011). Econometrics of financial high-frequency data. Springer Science & Business Media.
Lati, R. (2009). The real story of trading software espionage. Advanced Trading.
何书元. (2003). 应用时间序列分析. 北京大学出版社.

原文地址:https://www.cnblogs.com/dhcn/p/12398398.html

时间: 2024-10-18 01:02:00

金融高频数据计量——理论与实证的相关文章

Data.gov.uk电子政务云,牛津大学NIE金融大数据实验室王宁:数据治理的现状和实践

牛津大学NIE金融大数据实验室王宁:数据治理的现状和实践 我是牛津互联网研究院的研究员,是英国开放互联网的一个主要的研究机构和相关政策制订的一个机构.今天主要给大家介绍一下英国数据治理的一些现状和实践.Data.gov.uk就是相当于英国的电子政务云.我不知道大家还记不记得这个画面,这是2012年伦敦奥运会的时候,当时的一幕,一个房子拉开了之后一个人在里面座着打计算机,这个人是一个英国籍也是牛津大学毕业的科学家,也是万维网之父.他当时创造互联网时候当时是一个博士生,他有一个想法就是说能不能有一个

Storm的数据可靠性(理论)

Storm的数据可靠性(理论) .note-content {font-family: "Helvetica Neue",Arial,"Hiragino Sans GB","STHeiti","Microsoft YaHei","WenQuanYi Micro Hei",SimSun,Song,sans-serif;} .note-content h2 {line-height: 1.6; color: #

5.oracle的dump理解五 数据块理论

5.oracle的dump理解五 数据块理论 欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/51228514 前两篇描述了我们在操作层面看到的一些东西,但是没有理论指导,看到越多我们只会越迷糊.所以,蛤蟆从官方文档上摘取一些老少皆宜的内容来补脑. 块是数据块IO的最小单位. 1     数据块和操作系统块 从物理层面,数据库的块存储时候是由操作系统块组成.操作系统块是操作系统可以读写的最小数据单位.ORACLE块是一个逻辑存

金融大数据时代,金融BI强势来袭——奥威Power-BI

4月8日,“掘金大数据时代”远大愿景的“金融大数据高峰论坛暨可以融资的BI”产品发布会在武汉成功举办.作为国内最早的大数据与商业智能知名厂商奥威软件响应广大号召,与深圳亚洲保理联合主办发起这场金融BI交流盛宴,携手六度人和以及行业大咖围绕移动互联高速发展下大数据时代的技术及应用根本,解决数据分析痛点,更好地挖掘金融大数据时代等议题交流经验想法.吸引了近百家来自五湖四海的为中小企业提供管理信息化服务或金融服务的厂商们齐聚一堂,就企业融资发展和深化信息管理等热门话题做主题分享,聚焦运用保理工具助力中

金融大数据调研

大数据特点:海量.快速.价值.数据多样化,同样适用于金融大数据. 大数据金融特征与趋势 http://wiki.mbalib.com/wiki/大数据金融 大数据在银行业应用驱动分析 http://www.iteye.com/topic/1142295 大数据在银行业的案例分析 http://www.linguo.cn/news/html/402.html http://www.gbase.cn/products_detail/&productId=97.html Hadoop 平台在金融银行业

金融大数据

到底大数据是什么,把这个很神奇的东西拨开以后,它还是很原始的.大家有没有想过,实际上我们一个人就是很精细的大数据分析仪器.我今天认识一个朋友,我的内部会做一个简单判断,我会用眼睛来看,这是图片信息.我会听他的声音,感受声音的声频信息.如果有机会握手,这是一个触摸的信息.通过交流,我能感受到他语言的信息.这些就是大数据中最常见的非结构化信息.我已经在脑子中判断这是一个什么样的人,人脑已经在做非常精密的大数据分析.今天的大数据只是在还原人脑的50%的水平而已,它最大的是大数据量,有它的宽度和深度.这

聚焦智能驾驶与金融大数据,2017吉林松花湖论坛8月召开

随着大数据.云计算.人工智能时代的到来,对各行各业提出了全新的挑战.金融业作为世界上数据最为密集的行业之一,正全面走向大数据时代.智能驾驶被广泛认为是汽车行业的下一场大革命.目前,包括全球主流汽车厂商.科技巨头及出行领域的新锐初创企业,都加入了研究智能驾驶技术的行列. 在此背景下,由国家"千人计划"指定杂志<千人>联合吉林高新技术产业开发区.千人智库共同发起的"2017中国·吉林松花湖论坛--智能驾驶与金融大数据峰会"将于2017年8月17-19日在吉林

浅谈金融大数据

金融大数据的行业影响金融大数据在金融行业的应用能有效的帮助金融行业实现信息化转型,使得金融行业整体更为高效. 金融大数据的行业影响 金融大数据在金融行业的应用能有效的帮助金融行业实现信息化转型,使得金融行业整体更为高效. 金融大数据的帮助下,金融信息将会以更多的方式呈现.借助大数据可视化技术,结构化和非结构化数据可以从大量的金融信息之中提取出最有用的数据,并且用最合适的方式呈现,让用户可以从更多的角度和价值模型之中获益,帮助用于金融研究以及决策.金融大数据可视化还可以提供经济分析.管理分析以及绩

京东金融大数据竞赛猪脸识别(1)-从视频提取图像

2017年11月的京东金融大数据竞赛参与人数最多的是猪脸识别的算法比赛,参加整个大数据比赛的有四千多人,而猪脸识别算法组就有一千多人.可见,搞图像识别的的人很多啊.想要提升自己价值的小伙伴们,向语音.文本.机器人等领域进发吧,有了机器学习的基础,入门这些领域应该都不是太难.比赛给的数据是30头猪的视频,做识别的第一步还是从视频中去图像吧.本想用以前写过的视频取帧程序.看Matlab示例的时候发现用Matlab取帧更简便易行,那就用它吧.这样又省了很多时间.代码如下: %exam1.m extra