风险中性的深度学习选股策略

一、数据驱动型机器学习模型的问题

目前流行的机器学习方法,包括深度学习,大部分是数据驱动的方法,通过对训练集数据学习来提取知识。数据驱动型机器学习方法应用成功的前提是:从训练集数据中学习到的“知识”在样本外外推时依然适用。

当机器学习方法应用于投资领域时,一般是以历史数据作为训练集数据来训练模型,应用在未来的市场中。在深度学习多因子选股策略中,也是通过对历史股票行情数据的学习,来建立预测模型。此类机器学习方法在投资领域的应用是否会成功,取决于从历史数据中学习到的模型在未来的外推中是否有效。

然而在股票市场,一方面由于市场参与者众多,充满大量的影响股市的因素和噪声;另一方面,市场存在着风格切换和行业轮动。因此,可能会使得训练机器学习模型的历史场景和应用机器学习模型进行预测的“未来”场景存在显著差异,使得在样本内表现优异的机器学习模型在样本外表现一般。

例如,如果用于训练模型的股票样本来自于小市值风格的市场,那么训练出来的模型在小市值市场中的预测能力更佳,而且会“认为”小市值是股票产生超额收益的重要原因。一旦市场风格切换到大市值,小市值风格下训练出来的模型就可能失效。

为了解决这个问题,本篇报告尝试对股票样本进行风险中性化,减小风险因子轮动和行业轮动对模型训练和预测的影响。需要指出的是,本报告所提到的“风险中性”是指机器学习模型层面的风险中性化,与多因子选股中通过组合优化方法减小组合风险暴露不同。

本报告首先回顾了深度学习多因子选股模型的模型结构和相关参数设置,然后介绍了对股票样本进行风险中性的方法,最后通过实证分析证实了所提出的方法的有效性。从结果来看,本报告提出的策略能够获得更好的市场表现。

二、深度学习预测模型

(一)深度学习模型结构

在本报告的深度学习选股模型中,我们采用7层深层神经网络系统建立股票价格预测模型。其中包含输入层X,输出层Y,和隐含层H1、H2、H3、……、H5。各层的节点数如下表所示。该深度学习模型的结构是通过网格搜索优化出来的模型结构(参考报告《深度学习系列之三:深度学习新进展,Alpha因子的再挖掘》)。

其中,X是输入层,其节点数为156个,表示股票样本的156个特征,包括传统的选股因子(如估值因子、规模因子、反转因子、流动性因子、波动性因子),价量技术指标(如MACD、KDJ等指标),以及28个表示申万一级行业属性的0-1变量。

Y是输出层,共3个节点,表示股票未来走势的三种可能性:上涨(有超额收益)、平盘(无超额收益)、下跌(负的超额收益)。本报告中,用3维的向量表示3种不同的输出类别。y=[1 0 0]表示上涨样本,y=[0 1 0]表示平盘样本,y=[0 0 1]表示下跌样本。

深层神经网络是对输入X和输出Y的关系进行拟合,建立对输出Y的预测模型。其中,第1个隐含层的节点j为

第m个隐含层(m=2,3,4,5)的节点j为

输出层的节点k为

其中,σ_h和σ_o分别表示隐含层激活函数和输出层的激活函数,不同层的参数可以一并记为参数w,则神经网络可以记成y=f(x;w),其中w为需要优化的参数。下图展示了具有2个隐含层H1和H2的神经网络系统。

万能近似定理(Universal Approximation Theorem)证明神经网络具有强大的拟合能力。在应用神经网络进行预测前,需要采用大量的训练样本,通过优化的方法获得网络的参数w。具体来说,在深度学习中,通过训练样本数据(训练集),对参数w进行优化,使得模型的预测输出 y 尽可能地接近于样本的真实标签 t,即要使得如下的预测误差(损失函数)最小化

该目标函数的优化问题称之为最小化均方误差。对于分类问题,也可以构建其他形式的目标函数,例如,交叉熵(Cross Entropy)损失函数更适合作为分类神经网络模型优化的目标函数:

深度学习模型训练时,一般采用误差反向传播的方式求取梯度,优化参数。

为了提高模型的泛化能力,本报告采用Dropout方法,每次参数迭代更新时随机选择丢弃不同的隐层节点,这驱使每个隐层节点去学习更加有用的、不依赖于其他节点的特征。同时,本报告采用Batch Normalization技术提高模型的训练效率。关于Dropout和Batch Normalization的详细内容,可以参考报告《深度学习系列之三:深度学习新进展,Alpha因子的再挖掘》。

(二)股票样本标注

多因子选股中,我们希望挑选能够产生超额收益的股票构建组合,跑赢基准。因而,深度学习预测模型的目标是找出能够产生超额收益的股票。

相应的,为了构建深度学习模型,对于样本区间的每一个交易日,根据未来一段时间(本报告为10个交易日)的股票涨跌幅来给不同的股票样本贴“标签”(即深度学习模型的输出Y):“上涨”、“下跌”和“平盘”。其中,标记为上涨的股票是指产生超额收益的股票,即未来10个交易日涨幅最大的一部分股票(涨幅超过90%分位数的);标记为下跌的股票是有负的超额收益的股票,即未来10个交易日涨幅最小的一部分股票(涨幅低于10%分位数的);标记为平盘的股票是指未来10个交易日涨幅处于中间位置的股票(涨幅位于45%分位数到55%分位数之间的)。如下图所示。这样使得三类样本的样本数量相等,更有利于训练分类模型。

对股票样本进行标注和筛选之后,就可以训练深度学习预测模型。在选股时,按照上涨打分,即预测该股票属于“上涨”类别的概率 p("上涨"|x) ,进行选股。也就是寻找未来10个交易日涨幅处于前10%位置的概率较大的股票。

这样进行样本标注的问题是:股票的标签容易受到市场风格轮动和行业轮动的影响。在小市值风格下,“上涨”类的股票大部分是小盘股,“下跌”类的股票大部分是大盘股。如果股票样本大部分来自小市值风格的市场,那么模型会倾向于将市值作为一个重要的特征,而且会倾向于把小市值的股票分类到“上涨”类别中。一旦市场风格切换到大市值风格,该模型就有比较大的失效风险。同样的,如果当前的行业板块中,某板块表现强势,那么该行业板块的成份股也更有可能被标注为“上涨”类别,对分类模型来说,容易造成行业偏离。

(三)风险中性的股票样本标注

为了使得样本的标注(也就是选股的目标)不容易受到风险因子的影响,可以对样本标注过程进行风险中性化。

如果需要找出在每个行业内能够产生超额收益的股票,可以先将全市场的股票按照不同行业进行划分,分别在同一时间截面对不同行业内的股票进行收益率排序,选出每个行业“跑赢”和“跑输”的股票,如下图所示。这种样本标注方法的目标是寻找每个行业内能够产生超额收益的股票,因而股票样本的标签Y不会受到行业轮动的影响。因此,可以将这种方法称为“行业中性”的样本标注方法。

大小盘风格轮动是A股中非常显著的风格切换现象。如果希望寻找不易受到大小盘切换影响的能够产生超额收益的股票,可以将全市场股票按照不同市值区间进行划分,在不同市值区间内寻找产生超额收益的股票,也就是分别在同一时间截面对不同市值区间内的股票进行收益率排序,选出每个市值区间“跑赢”和“跑输”的股票,如下图所示。这种样本标注方法下,股票样本的标签Y不容易受到大小盘风格切换的影响。因此,可以将这种方法称为“市值风格中性”的样本标注方法。

以上是针对单一风险因子进行中性化的做法。更一般的情况下,我们需要同时考虑多个风险因子。假设考虑K个风险因子,可以通过回归的方法对风险因子进行剥离:

其中,r 是股票在随后一期的收益率,X 表示股票在 K 个风险因子上的因子暴露值。对t时刻的市场股票进行截面回归,可以获得 K 个风险因子的收益率 f ,以及剥离风险因子之后的股票收益率 ?,即回归残差。

然后按照残差 ? 在同一时间截面 t 进行排序,将股票标记为“上涨”、“下跌”和“平盘”三类。预测模型的目标不再是寻找未来一期收益率在前10%的股票,而是剥离风险因子收益之后,收益率在前10%的股票。

本报告中,我们采用行业和流通市值作为风险因子进行风险中性处理。

三、策略与实证分析

(一)深度学习预测模型

深度学习多因子选股交易策略的流程如下图所示。在模型训练和选股交易时,都需要先对市场数据进行预处理。在模型训练阶段,需要把历史市场数据标准化成为适合深度学习模型的特征数据;在选股交易阶段,从当前市场的数据中计算每个股票的特征数据,并且进行数据的标准化,通过训练好的深度学习模型,对每个股票的未来走势进行预测打分,然后根据每个股票的打分进行分档选股,构建组合。

数据预处理分成两步:股票因子的计算和股票因子的标准化。

首先,我们从Wind、天软科技等金融数据终端提取市场数据,计算股票因子作为机器学习模型的特征。本报告中,我们选择了156个特征,包括传统的选股因子(如估值因子、规模因子、反转因子、流动性因子、波动性因子),价量技术指标(如MACD、KDJ等指标),以及28个表示申万一级行业属性的0-1变量。

因子标准化过程分成如下几个环节:

1、异常值、缺失值处理

对股票因子数据中的异常值和缺失值进行处理。例如,当股票某一期的因子值缺失或者数据有异常时,用上一期的因子值进行替代。

2、极值压边界处理

当股票的因子数据显著偏离同期该行业股票因子数据时,可以设置边界阈值进行极值处理。例如,我们可以令上边界ub为同期该行业内股票因子值的均值加上3倍标准差;下边界lb等于同期该行业内股票因子值的均值减去3倍标准差。当股票因子值超出上边界,即当x>ub时,令x=ub;当股票因子值超出下边界,即当x<lb时,令x=lb。这样,可以使得所有的因子数据位于下边界 lb 和上边界 ub之间。

3、沿时间方向的因子标准化

沿时间方向的因子标准化使得不同时段的因子值可比。例如,2015年市场的成交量和当前市场有显著的区别,成交量相关的选股指标也与当前市场有较大的差异。可以对成交量相关的选股因子按照此前一段时间的成交量均值进行标准化处理,使得不同时期的因子值具有可比性。沿时间方向因子标准化的好处是使得我们用历史数据训练出的模型可以用来对未来的市场进行预测。

4、沿截面的因子标准化

沿截面方向的因子标准化使得不同特征的值可比,例如流通市值和换手率的数据相差很大,通过因子标准化,可以使得标准化之后的流通市值和换手率可比。因子标准化的方法有z-score标准化、min-max标准化、排序标准化等。

假设在时刻 t,某股票 k 的因子 i 的值为x(t,k)^i。z-score标准化把变量处理成均值为0,方差为1:

Min-Max标准化把变量处理成0到1之间的数:

排序标准化是根据股票在因子i 的值进行排序,按照序号对应到0到1之间。因子值最小的标准化为0,因子值最大的标准化为1,其他按序号标准化为小于1且大于0的数。

5、按照机器学习模型来调整因子分布

不同的机器学习模型对输入数据的假设有差别,需要根据模型的假设来调整因子分布。深层神经网络一般对输入数据的假设不强,可以同时容纳连续型的输入数据和离散型的输入数据(如行业的0、1哑变量)。如果采用自编码器或者受限玻尔兹曼机,需要注意模型对输入数据的分布假设。

在选股交易阶段,将因子数据预处理之后,我们可以直接把处理好的因子数据输入深度学习预测模型,给出预测打分。但在模型训练阶段,为了训练好深度学习预测模型,我们需要对不同的股票样本添加“标签”,并且进行训练样本的筛选。

在样本标注和样本筛选环节,我们按照上节所示的方法将股票样本对风险因子进行截面回归,剥离风险因子的影响,然后进行样本的标注和模型学习。

在样本外,我们可以对每只股票进行预测打分。根据股票的上涨打分,筛选前10%的股票构建组合。

与隐含层采用ReLU激活函数不同,输出层采用softmax激活函数。在预测时,输出层softmax激活函数的输入向量为z=[z1 z2 z3],则经过softmax函数后,预测值为

其中,y1,y2,y3 都是大于0且小于1的数,而且之和等于1。第一个输出节点的预测值是我们对股票的上涨预测打分,即预测该股票属于“上涨”类别的概率。

本报告中,我们采用全市场股票来训练深度学习模型,剔除上市交易时间不满一年的股票,剔除ST股票,剔除交易日停牌和涨停、跌停的股票。

用于预测的是未来10个交易日的收益率。对于风险中性的深度学习模型,先用行业和市值因子进行截面回归,剥离风险因子影响,然后建立模型。

样本期为自2007年1月至2018年4月。模型按照每半年更新一次,每次训练采用最近4年的市场数据来训练模型。样本外数据从2011年1月开始(2007年至2010年的数据用于训练第一个深度学习预测模型)。

(二)风险中性的作用

本报告中,我们对模型进行滚动更新,每半年重新训练一次模型。每次训练时采用最近4年的数据进行模型的训练。

将股票打分与未来10个交易日的收益率求截面的秩相关系数,计算IC,如下图所示。IC的平均值为0.082,标准差为0.108。大部分时间,选股模型的IC大于0。

为了检验风险中性的作用,本报告分析了普通的深度学习策略和风险中性的深度学习策略分别与流通市值因子的关系。

首先来看深度学习选股模型的IC与流通市值因子IC的关系。下面左图展示了普通的深度学习选股模型IC与流通市值IC的关系,该相关性越强表示深度学习选股因子的表现与市值因子选股的表现关系越强。从图中可以看到,流通市值因子IC与普通的深度学习因子IC相关性较强,而且是负的相关性(因为流通市值因子是负向因子)。说明普通的深度学习因子的表现与流通市值因子表现有一定的相关性,当流通市值因子表现好时,普通的深度学习因子表现也比较好。

从右图中可以看到,在风险中性处理之后,深度学习因子IC与流通市值因子IC的相关性有明显的降低。这意味着风险中性的深度学习因子的表现与流通市值因子表现的相关性没有那么强了。

其次来看深度学习选股模型每期的打分与流通市值因子的关系。下图中的左图展示了普通的深度学习模型每期打分与流通市值的截面相关系数,截面相关系数的平均值为-0.20,这说明普通的深度学习模型中,市值越小的股票一般打分越高,模型的选股偏小市值。而风险中性的深度学习模型中,截面相关系数的平均值为-0.12,有明显的下降,没有那么偏向于小市值。而且在2017年以来,大部分时间截面相关系数大于0,表示模型的选股偏大市值风格。

从以上分析可以看到,经过风险中性化处理,深度学习选股模型不容易受到市值因子的影响。但是,风险中性的深度学习模型的IC与市值因子的IC仍然有一定的相关性,说明当市值因子表现好的时候,深度学习模型也倾向于获得更好的收益。这是因为市值因子是A股市场长期以来表现较好的因子,基于历史数据训练出来的深度学习模型不能完全剥离市值因子的影响。

(三)策略回测

本报告以中证500指数作为股票池,进行选股策略的回测。策略调仓周期为10个交易日。每次调仓时把股票等分成十档,等权买入深度学习预测模型打分最高的一档。按照0.3%的交易成本进行回测。

首先来看普通的深度学习模型的选股表现。如下图所示,普通的深度学习选股模型在中证500成份股内的年化超额收益率为19.71%,超额收益最大回撤-5.35%,超额胜率为69.5%,信息比2.47。

与之相比,风险中性的深度学习模型的选股表现更好一些。如下图所示,风险中性的深度学习选股模型在中证500成份股内的年化超额收益率为21.95%,超额收益最大回撤-5.03%,超额胜率为74.6%,信息比2.92。

对冲策略分年度的收益回撤情况如下表所示。可以看到,策略每年都获得了正的超额收益,即使在传统的市值和反转因子表现不佳的2017年,策略也获得了6.93%的超额收益率。(注:2011年数据从2011年1月底开始;2018年数据截止到2018年4月底。)

由于选股因子中技术类指标比较多,策略的换手率较高,每次调仓的平均换手率为70.8%,年化换手率为17.7倍。

(四)策略同质性分析

本报告提出的风险中性的深度学习模型与普通的深度学习模型在模型训练时的训练目标不一样。普通的深度学习模型是把每个时间截面上收益率不一样的股票区分开,希望寻找能够产生超额收益的股票;风险中性的深度学习模型是在每个截面上把收益率剥离风险因子影响后不一样的股票区分开,希望寻找在剥离风险因子影响后能够产生超额收益的股票。

在不同的机器学习目标下训练的策略表现不一样,如下图所示,总体而言,风险中性的深度学习策略长期表现更好。

两种策略的相关性比较高,下图展示了普通深度学习模型的IC与风险中性的深度学习模型IC的关系。可以看到,风险中性的深度学习模型的表现与普通深度学习模型的表现相关性很高,一般情况下,当普通的深度学习模型表现好的时候,风险中性的深度学习模型表现也不错。两种策略的表现具有较强的同质性。

然而,两种深度学习模型选股有较大的差异。当组合规模为50只股票的时候,两种深度学习模型平均每期所选的股票有21.0只重合(占比41.9%);当组合规模为100只股票的时候,两种深度学习模型平均每一期所选的股票有53.3只重合(占比53.3%)。如下图所示。这说明,当给机器学习模型设定的训练目标不一样时,模型会从不同的角度筛选股票。

四、总结与讨论

机器学习的本质是从数据中学习知识。普通的深度学习选股模型的训练样本会受到所在区间风格轮动的影响,采用小市值风格市场的股票样本训练出来的模型会偏向小市值风格,从行业表现差异大的市场获取的股票样本训练出来的模型会有较大的行业偏离。在模型训练时,通过对风险因子的中性化处理,能够在一定程度上缓解风险因子轮动对模型训练的影响,使得训练出来的模型有更稳定的表现。

本报告通过实证分析,证实了将风险因子中性化处理后,训练出来的深度学习选股模型受市值因子的影响较小。2011年以来,中证500内选股对冲策略年化收益率21.95%,最大回撤 -5.03%,胜率为 74.6%,信息比2.92。

原文地址:https://www.cnblogs.com/alan-blog-TsingHua/p/9727204.html

时间: 2024-11-05 20:24:56

风险中性的深度学习选股策略的相关文章

&lt;深度学习优化策略-3&gt; 深度学习网络加速器Weight Normalization_WN

前面我们学习过深度学习中用于加速网络训练.提升网络泛化能力的两种策略:Batch Normalization(Batch Normalization)和Layer Normalization(LN).今天讨论另一种与它们类似的策略:Weight Normalization(Weight Normalization).Weight Normalization是Batch Normalization的一种变体,与Batch Normalization最大不同点:对神经网络的权值向量W进行参数重写Re

深度学习调参策略(一)

经常会被问到你用深度学习训练模型时怎么样改善你的结果呢?然后每次都懵逼了,一是自己懂的不多,二是实验的不多,三是记性不行忘记了.所以写这篇博客,记录下别人以及自己的一些经验. Ilya Sutskever(Hinton的学生)讲述了有关深度学习的见解及实用建议: 获取数据:确保要有高质量的输入/输出数据集,这个数据集要足够大.具有代表性以及拥有相对清楚的标签.缺乏数据集是很难成功的. 预处理:将数据进行集中是非常重要的,也就是要使数据均值为0,从而使每个维度的每次变动为1.有时,当输入的维度随量

深度学习调参策略(二)

超参数(Hyper-Parameter)是困扰神经网络训练的问题之一,因为这些参数不可通过常规方法学习获得. 神经网络经典五大超参数: 学习率(Leraning Rate).权值初始化(Weight Initialization).网络层数(Layers) 单层神经元数(Units).正则惩罚项(Regularizer|Normalization) 这五大超参数使得神经网络更像是一门实践课,而不是理论课. 懂神经网络可能只要一小时,但是调神经网络可能要几天. https://zhuanlan.z

深度学习与自然语言处理(2)_斯坦福cs224d Lecture 2

原文作者:Rohit Mundra, Richard Socher 原文翻译:@熊杰([email protected]) && @王昱森 内容调整与校对:寒小阳 && 龙心尘 特别鸣谢:@面包包包包包同学的帮助 时间:2016年6月 出处:http://blog.csdn.net/han_xiaoyang/article/details/51648483 http://blog.csdn.net/longxinchen_ml/article/details/5164853

斯坦福cs224d(深度学习在自然语言处理上的应用)Lecture 2

原文作者:Rohit Mundra, Richard Socher 原文翻译:@熊杰([email protected]) && @王昱森 内容调整与校对:寒小阳 && 龙心尘 特别鸣谢:@面包包包包包同学的帮助 时间:2016年6月 出处: http://blog.csdn.net/han_xiaoyang/article/details/51648483 http://blog.csdn.net/longxinchen_ml/article/details/516485

Deep Learning(深度学习)之(九)词向量的内部任务评价和外部任务评价方法

关键词: 内部任务评价(Intrinsic Evaluation)和 外部任务评价(extrinsic evaluations).超参数影响下的类比评价任务.人类决策和词向量距离的相关性.结合上下文处理歧义.窗口分类. 这个课堂笔记我们将会对词向量(也就是词嵌入)的内部任务评价和外部任务评价方法进行讨论.主要的内容是单词类比(word analogies)技术,我们会把它当做内部任务评价的技术并展示其相关示例,它会在词向量的调谐(tune)中发挥重要作用.我们还会讨论如何训练模型的权重/参数,并

深度学习在数据挖掘的应用

深度学习是我们明略重要的研究方向,是目前工业界学术界实现了很多令人惊叹功能的工具,也是通向人工智能的必经之路. 我们先来看看深度学习能做什么,Google研究的无人驾驶,其组件由两个部分组成,一个是眼睛,一个是大脑,眼睛是激光测距仪和视频摄像头,汽车收集到这些视频信号之后,并不能很好的识别,为了让汽车能理解我们需要一个大脑,这个大脑就是深度学习,通过深度学习我们可以告诉我们的车载的计算机,现在前面有什么样的物体,并且结构化的抽取出来. 比如说这个是通过挡风玻璃看到的画面,让机器理解,必须要判断视

机器学习和深度学习资料合集

机器学习和深度学习资料合集 注:机器学习资料篇目一共500条,篇目二开始更新 希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友能够学到更多.此外:某些资料在中国访问需要梯子. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <Deep Learning in

[转]机器学习和深度学习资料汇总【01】

本文转自:http://blog.csdn.net/sinat_34707539/article/details/52105681 <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <Deep Learning in Neural Networks: An Overview> 介绍:这是瑞士人工智能实验室Jurgen