幸存者偏差Survivorship Bias

"最不符合逻辑的地方,一定埋藏着最深刻的逻辑。"——余秋雨《行者无疆》

为什么要说幸存者偏差?

因为2018年全国II卷的描述即为典型的“幸存者偏差”,且这一例子被引入维基百科。这是一个常见的认知偏差。

幸存者偏差简介

先来段维基百科的解释:

幸存者偏差(英语:survivorship bias),另译为“生存者偏差”,是一种认知偏差。其逻辑谬误表现为过分关注于目前人或物“幸存了某些经历”然而往往忽略了不在视界内或无法幸存这些事件的人或物。其谬论形式为:幸存过程B的个体A有特性C,因此任何个体幸存过程B需要有特性C。有特性C但无法幸存过程B的个体被忽略不加以讨论。逻辑偏差在于只关注筛选结果做出评估,而忽略筛选条件与筛选机制等信息。用俗语“死人不会说话”来解释其成因意指当取得资讯之管道,仅来自于幸存者时(因为无从由死者获得来源),此资讯可能会存在与实际情况不同之偏差。这种偏差可以导致各种错误结论。

应该没人想去看这些术语解释,
幸存者偏差即“死人不会说话”,人们常常关注到成功者,也就是幸存者,却忽略了了死者,也就是失败者。

再放个常见的例子:

每个成功者都很努力,所以只要努力就能成功。

很明显,这是错的,可是错在哪里呢?

从幸存者偏差角度来讲,此例却无提出努力却失败的人,直接无视了失败者。

还有几个常见例子:

为什么好莱坞拍的都是大片?

因为拍烂的电影根本没有机会在国内上映,

你根本没机会看见。

某电台记者在高铁上采访乘客是否买到车票。

而买不到车票的人根本上不了车。

经商致富的成功者出书介绍自己的成功办法。

与该书作者做了相同事情的其他人,未获成功,但失败者是无法出书的,所以我们会误以为该书介绍的办法就是成功的途径。

跑酷怎么这么酷?

失手的早死了,怎么给你传视频?

那么下面这个呢:

某记者在网上搜出“民国小学生作文”,文采极好,于是记者总结道:现在的小学语文教育和民国时没法比啊!

还是错的!

民国小学生作文之所以能流传到今天,必然是当时就是佼佼者,它是幸存者,代表不了当时民国小学生的整体水平。

现实生活中的幸存者偏差

很熟悉的一个例子,尤其在吹B饭局上多见:

读书无用论

谁谁谁没上过大学,如今照样挣大钱,手下全是硕士博士。而好多读书认真用功,考上大学的人,毕业后反而不如那些没好好学习的人混的好。

两个关注点:

1.低学历者的成功被人关注并无限放大

2.高学历者的失败被人关注并无限放大

有什么特点?

这两个事例都不常见,且符合吹B者的观点,所以极易被人关注并吹捧。

低学历者的失败,高学历者的成功却司空见惯,无人提起,而恰恰这些才是普遍现象。

低学历者的成功就是幸存者,如果我们只关注幸存者,而不去看死人(普遍现象)这个庞大的群体,结论就会出错。

就像寒门子弟考上清北被大肆宣传,一个北京上海人考上根本没有人理是一个道理。

又如游戏主播

同步自我的博客:
你看到某游戏主播收入百万,于是自己也想去当,觉得自己也能这么干,还可以打游戏。

算了吧!

中国的网络主播人数已超过百万,只有不到1%的人,能够年收入百万千万。你看到的只是百分之一。

你看到那些一天只有个位数观看的主播吗?

你看不到,你的首页只有千万关注的大主播。

你看见了站在塔尖的人,却不想看到这条路曾经埋葬了多少理想和年少。

总结

幸存者偏差,即人们只关注到幸存者,而不关注死者(也无法关注,他们已经“死”了)。

这是很常见的认知偏差,更有甚者利用这种偏差诱导舆论方向(媒体)。

只有同时关注到幸存者与死者,才能最大限度避免盲从。

别让幸存者影响你的判断

这个世界远比你看见的复杂

看不见的弹痕才是最致命的

原文地址:https://www.cnblogs.com/ljysblog/p/10363451.html

时间: 2024-10-12 20:07:15

幸存者偏差Survivorship Bias的相关文章

从新手运气到幸存者偏差

从新手运气到幸存者偏差 Esri 中国 卢萌 赌徒都相信"初学者总是有运气"的.几乎所有的赌徒都认为"虽然后来运气会慢慢变差,但是刚开始赌的时候总是很走运的". 抛开职业赌场,庄家放长线吊大鱼的不算.就算在股市上也经常有这种案例,新人入行的时候,运气都特别的好. 是否真有新手运气这一回事呢?在讨论这个问题之前,我们先来看看统计学里面的一个专业名词"幸存者偏差(Survivorship bias)",另外也有译为"生存者偏差"或

正则化——“偏差(bias)”与“方差(variance)”

正则化后的线性回归模型 模型 \[{h_\theta }\left( x \right) = {\theta _0} + {\theta _1}x + {\theta _2}{x^2} + {\theta _3}{x^3} + {\theta _4}{x^4}\] \[J\left( \theta  \right) = \frac{1}{{2m}}\left[ {\sum\limits_{i = 1}^m {{{\left( {{h_\theta }\left( {{x^{\left( i \r

再聪明,你也会常犯的数据分析错误  

如果你不了解大数据,你就不会明白大数据的核心价值有多大.当然你不光要了解大数据,还要学会科学的数据分析方法,才能让大数据产生价值.而在数据分析过程中,聪明的数据分析师也会常犯些错误,纽带线CRM小编跟大家分享这些常犯的错误,在以后应用过程中尽量避免. 错把相关性当成因果性  correlation vs. causation 经典的冰淇凌销量和游泳溺水人数成正比的数据,这并不能说明冰淇凌销量的增加会导致更多的人溺水,而只能说明二者相关,比如因为天热所以二者数量都增加了.这个例子比较明显,说起来可

机器学习中学习曲线的 bias vs variance 以及 数据量m

关于偏差.方差以及学习曲线为代表的诊断法: 在评估假设函数时,我们习惯将整个样本按照6:2:2的比例分割:60%训练集training set.20%交叉验证集cross validation set.20%测试集test set,分别用于拟合假设函数.模型选择和预测. 模型选择的方法为: 1. 使用训练集训练出 10 个模型 2. 用 10 个模型分别对交叉验证集计算得出交叉验证误差(代价函数的值) 3. 选取代价函数值最小的模型 4. 用步骤 3 中选出的模型对测试集计算得出推广误差(代价函

常用思维模式大全(上)

就像芒格说的那样:"80到90个模式在让你成为精于世故的人的因素当中所占分量达到了90%." 编者按:思维模式是人们观察.分析.解决问题的模式化.程式化的"心理结构",对个人乃至于组织的行为起着至关重要的作用.为了一劳永逸地解答员工平时不断问到的问题,也出于对自己思考方式的总结,DuckDuckGo创始人兼CEO.<Traction>一书的联合作者Gabriel Weinberg总结了他平时反复使用到的思维模式,按照解释(Explaining).建模.头

CFA一级知识点总结

Ethics 部分 Objective of codes and standard:永远是为了maintain public trust in 1. Financial market 2. Investment profession 6个code of ethics 1. Code 1—ethics and pertinent d persons a. 2. Code 2---primacy of client’s interest a. Integrity with investment pr

机器学习系列(11)_Python中Gradient Boosting Machine(GBM)调参方法详解

原文地址:Complete Guide to Parameter Tuning in Gradient Boosting (GBM) in Python by Aarshay Jain 原文翻译与校对:@酒酒Angie && 寒小阳([email protected]) 时间:2016年9月. 出处:http://blog.csdn.net/han_xiaoyang/article/details/52663170 声明:版权所有,转载请联系作者并注明出 1.前言 如果一直以来你只把GBM

New to Machine Learning? Avoid these three mistakes

http://blog.csdn.net/pipisorry/article/details/43973171 James Faghmous提醒机器学习初学者要避免的三方面错误,推荐阅读 New to Machine Learning? Avoid these three mistakes Common pitfalls when learning from data Machine learning (ML) is one of the hottest fields in data scien

scikit_learn 官方文档翻译(集成学习)

1.11. Ensemble methods(集成学习) 目标: 相对于当个学习器,集成学习通过使用多个基学习器的预测结果来来提高学习预测的泛化性能以及鲁棒性: 集成学习的两个思路: 1).通过使用并行的学习,得到多个学习模型然后取其平均结果目的在于减少方差,代表算法有随机森林.通常来说多个学习器的集成要比单个学习器的效果要好多. 2).采用串行的方式生成多个学习器目的在于减少偏差(bias),使用多个弱分类器组合成为一个强分类器,代表算法adaBoosting以及boosting tree.G