[读论文]基金评级及其激励

HUANG, C., LI, F. and WENG, X. (2020), Star Ratings and the Incentives of Mutual Funds. The Journal of Finance. Accepted Author Manuscript. doi:10.1111/jofi.12888

摘要:我们构建了一个声誉模型来解释投资者如何理性地应对共同基金评级的变化。基金的表现是由其信息优势决定的,但这种信息优势会随机性地衰减。投资者通过基金过去的表现来判断基金是否能获得内部信息。我们将这种信念称为基金的声誉,并认为声誉决定了资金的流向。随着基金业绩连续地变化,基金的声誉作为博弈的均衡解却只有离散型的取值,所以能够用星级来进行标记。基金星级上升表示着信誉的提高,这会带来离散型的资金流入和更高的业绩预期,但基金评级并不提供新的信息。

笔者评论:这是一篇模型文章,我就没仔细去推导,不过连续条件下的博弈只有离散解这是可以理解的。抛开所有细节,文章作者居然能想到要去利用博弈论里面均衡解的离散特征去解释为什么基金评级是离散的,这个视角实在是太刁钻了!太刁钻了!太刁钻了!大概瞅了一眼文章的模型,基本都是些“硬功夫”(奇技淫巧,无贬义哈)。通过这个声誉模型,作者讲了三个故事:一是基金管理人如何根据声誉的变化而主动收集/禁止收集信息,二是解释了基金评级为何是离散型的值,三是提供了一种看待基金声誉的新的视角。笔者个人觉得,如果这个故事继续讲下去,作者应该试着推导一下均衡解的数量的决定因素——究竟是将基金分为两级合适还是十级合适?反正笔者对这个问题还挺感兴趣的。

原文地址:https://www.cnblogs.com/teaforinvestors/p/12255746.html

时间: 2024-11-29 06:51:01

[读论文]基金评级及其激励的相关文章

读论文笔记

最近开始认真的去读论文了,而且慢慢读出了一点味道,首先最基本的读的速度变快了,可能是因为读的这几篇论文里重复的单词比较多,,,,害怕读的论文,过了一段时间又给忘了,所以一点一点记下来. 我做的毕设是彩色水果图像的分割嘛,所以先读的论文自然都是和水果有关的,去那些数据库搜索文献,关键词就是 fruit image segmentation. 1      <Object Segmentation For Fruit Image Using OHTA Color Space and Cascade

读论文Machine Learning for Improved Diagnosis and Prognosis in Healthcare

这是我读的第一篇英文论文,连着读了两遍,做了一些笔记,是一个接收的过程. 文章主要讲了机器学习的一些方法,以及两个实际应用.

读论文BinarizedNormedGradientsforObjectnessEstimationat300fps

关于论文 这两天翻了翻cvpr2014的论文,发现程明明老师关于Objectness Detecting的论文,于是拜读了一番.论文贡献了两个观点: 目标有closed boundary,因此将窗口resize到8x8也能进行目标和背景的识别,这实际上降低了窗口的分辨率,resize到8x8目的是加速计算.这就相当于我们看路上走的人一样,在很远的地方即使我们没看清楚脸,只是看到一个轮廓也能识别出是不是我们认识的人,反而,如果脸贴着脸去看一个人可能会认不出来.作者还使用了最简单的梯度特征,运算量非

读论文系列:Object Detection SPP-net

本文为您解读SPP-net: Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition Motivation 神经网络在计算机视觉方面的成功得益于卷积神经网络,然而,现有的许多成功的神经网络结构都要求输入为一个固定的尺寸(比如224x224,299x299),传入一张图像,需要对它做拉伸或者裁剪,再输入到网络中进行运算. 然而,裁剪可能会丢失信息,拉伸会使得图像变形,这些因素都提高了视觉任务的门槛,

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(1)

3. Cross-lingual speaker adaptation using STC with a bilingual corpus 第一段 问题1,为什么要用双语语料库,双语语料库是同一个说话人的吗? cross-lingual speaker adaptation的开山鼻祖是Yijiang Wang的论文,而且也实现了代码,在HTS 2.2中. Yijiang Wang的做法是基于state mapping的,而本文作者的做法是基于STC,然后加上双语语料库 注意一点,本文作者与Yij

Deep Learning 17:DBN的学习_读论文“A fast learning algorithm for deep belief nets”的总结

1.论文“A fast learning algorithm for deep belief nets”的“explaining away”现象的解释: 见:Explaining Away的简单理解 2.论文“A fast learning algorithm for deep belief nets”的整个过程及其“Complementary priors”的解释: 见:paper:A fast learning algorithm for deep belief nets和 [2014041

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(2)

3   Cross-lingualspeakeradaptationusing STC with a bilingual corpus 第一段: In the state mapping technique described in the previous section, the mismatch of language characteristics affects the mapping performance of transformation matrices because onl

读论文 《TransForm Mapping Using Shared Decision Tree Context Clustering for HMM-based Cross-Lingual Speech Synthesis》(3)

3.1. Shareddecisiontreecontextclustering(STC) STC [11] was originally proposed to avoid generating speaker-biased leaf nodes in the tree construction of an average voice model. 果然,这里作者说了一下STC技术的出处在什么地方 然后简单的介绍了STC技术是用来解决什么问题的 在average voice model的树的构

Deep Learning 23:dropout理解_之读论文“Improving neural networks by preventing co-adaptation of feature detectors”

理论知识:Deep learning:四十一(Dropout简单理解).深度学习(二十二)Dropout浅层理解与实现.“Improving neural networks by preventing co-adaptation of feature detectors” 感觉没什么好说的了,该说的在引用的这两篇博客里已经说得很清楚了,直接做试验吧 注意: 1.在模型的测试阶段,使用”mean network(均值网络)”来得到隐含层的输出,其实就是在网络前向传播到输出层前时隐含层节点的输出值都