卷首语
这周主要看了一些概率方面的书。
先分享一本《风险认知》,觉得他写得这叫一个清楚啊。
在癌症早筛之类的案例上,真是非常戳心,估计 99% 的人都会掉他描述的坑里。
分享给大家,下周再找时间和大家直播详聊。
今晚(周四)我先直播聊个别的。
聊聊以太坊 Ethereum。
如果你对以太坊是什么,能做什么,为什么值几千亿美金,怎么搞起来的……这些话题感兴趣。
或者仅仅是想了解一下 Web3(以太坊大概率是未来 Web3 的基础设施)。
欢迎预约,晚上来听我讲一遍哈~
Enjoy~
生存率提高 68%,其实毛用没有
X 癌症,做过筛查(查出这个病 & 及早干预)的 5 年生存率是 99%,没做筛查(其他方式发现)的 5 年生存率是 68%,是否代表这个筛查很有用?
乳腺癌,做过筛查的,乳腺癌死亡风险降低了 20%,是否代表这个筛查很有用?
最近在看体检。
没读这本书之前,我是觉得癌症早筛挺有用。
现在我也不觉得早筛不该做,但至少发现自己之前的“觉得应该做”其实只是个拍脑袋的判断(类似“这只股票值得买”),而并不是基于理性分析和思考。
这本书用硬邦邦的数学证明:光看这生存率或者死亡率,无法证明筛查有用,更无法证明利大于弊。
第一个问题,是还得看发病率,发病率低做了不划算
如果 X 癌症发病率,是 10 个人里有一个。
那么 1000 个人都做早筛,5 年活下来 999个。
1000 个人都不做,5 年活下来 968 个。
差别是 31 个。
我麻烦一下(比如付 1000 块 + 照一下 X 光伤害一下身体),提高自己31/1000 = 3.1% 生存率,还是划算的。
可是,如果 X 癌症发病率,是 10000 人里有一个呢?
那么 10000 个人都做早筛,5 年活下来 9999.99 个。
10000 个人都不做,5 年活下来 9999.68 个。
差别是 0.31 个。
我麻烦一下(比如还是付 1000 块 + 照一下 X 光伤害一下身体),提高自己 0.31/10000 = 0.0031% 生存率。
这得不偿失啊!
所以,如果要做早筛,至少得知道这个病发病率……
发病率不高,或者自己不是高危的状态,就慎重。
第二个问题,是筛查不等于预防,生存率提高不代表死亡率下降。
两个原因,一是“领先时间偏倚”——本质上,早筛一定能带来更高的生存率,不是因为及时干预治疗,而仅仅是因为把计算“5 年生存率”的起点提前了。
举例来讲,A 公司现在去给老人院做 X 癌症筛查,查出来 30 个老人有 X 癌症,但是之后不告诉他们,也不做任何干预。这 30 个老人的“5 年生存率”就会比外面没做过 X 癌症筛查的老人更高,仅仅是因为这个“5 年”提前开始计数了。
书中用的例子是前列腺特异性抗原(PSA)检查。
英国,前列腺癌是通过症状发现的,假设都在 67 岁发现,发病后只活了 3 年,那么 5 年存活率就是 0;
美国,前列腺癌是通过早筛发现的,假设都在 60 岁发现,发病后都活了 10 年,那么 5 年存活率就是 100%。
看起来,0% 和 100% 是天壤之别。
但实际上……有毛区别啊,都是 70 岁挂掉。
除了“早”这个原因之外,还有个原因是“过度诊断偏倚”。
简单讲,就是我们找到更多根本不会发展的“未病”,把这些人也加到自己 KPI 计算里面,数据自然就更好看了。
比如,如果一个人得了一种“慢性子”癌症(非生长性癌症),一直到他死这个癌症也不会爆发,理论上讲其实没什么坏处。但是,PSA检查是可以找到这种癌症的,但分不出来他到底是生长性还是非生长性(日后到底会不会真有症状和危害)。仅仅因为“多看到了一些日后也不会有影响的病”,就能让生存率 KPI 显著提高。
举例来说,1000 个得了生长性癌症的英国人没做过检查,5 年后,还剩下 440 人,生存率 44%。
1000 个患有生长性癌症的美国人都做了 PSA 检查,但是这个检查另外还确诊了 2000 个其他人患有非生长性癌症(虽然其实不治没事)。2000 个非生长性癌症患者 + 440 名存活下来的生长性癌症患者,让生存率一下子涨到了 81%。
虽然生存率看起来天差地别,但实际上死的人完全没变,还是 560 人。
所以,如果要做早筛,得分辨一下它的效果是“计算 KPI 的方式不同”带来的,还是“早筛早治疗”带来的。
或者,简单一点,至少接受概念时心存点疑虑,类似别人跟你宣传“保本年息 20% 的投资品”时,多想想。
第三个问题,是要考虑“其他关联”。
就算发病率不太低,就算真的影响了得这个病的死亡率,也不见得早筛应该做。
举例来说,乳腺 X 射线检查能够降低女性死于乳腺癌的概率,1000 个未做筛查的女性中,5 人会死于乳腺癌。但是做过筛查的1000 人力,只有 4 人。这时广告就会说“风险降低了 20%!”。
但是,如果把“所有癌症”算上,会发现进行筛查的 1000 名女性中,21 人死于癌症;对于没有进行筛查的 1000 名,数字也是 21 名。其实,并没有降低整体的风险。
更糟的是,过程中的成本,不仅仅是金钱,而且还有心里痛苦和辐射伤害。都算上的话,可能一个看起来美好的“20%”就变成了负效用。
看完这几条,是不是觉得……
世界太复杂。
如果要尽可能做个明白人,不被宣传引导。
可能还是得做点笨功夫,把“选择 vs. 不选择”的后续发展,用对比图示信息的方式表达出来,而不要直接根据抽象数据来决策。
比如他做的关于前列腺筛查的图:
大部分看这张图的人应该会知道该怎么选。
不确定性 vs. 风险
已知风险算作风险,比如彩票和赌博里的概率。
但是,其实真实世界,绝大部分事情的概率是未知的,这部分只能叫做不确定性。
我们最常犯的错误,就是把不确定性当风险。
明明自己不知道,却以为自己知道。
这个错误的源头,很多时候源自我们对“概率”本质的忽略。
概率,并不是一个客观存在(除非是在书上)。
而是有三张面孔:频率;物理设计;和可信度。
比如核电站发生故障的概率,可以根据之前的事故数量、核电站的物理设计或者专家的可信度计算得出。
之前的事故数量、频次,看起来是客观信息,但其实也未必……比如怎么样评估事故,什么信息会被掩盖,都不一定。而且,就算信息全面,数据量也太小,其实很难构建靠谱的模型。
核电站的物理设计,和故障概率的关系……其实还是靠人来建模判断,这个模型里面又有一堆的主观评价,也会有人类的认知盲点。
专家评估……这就更是了。
所以,我们看到一个貌似客观的曲线模型的时候,一定要知道它背后其实可能是 3 根很不牢靠的柱子。
不要看到图就信。
面对复杂世界,反倒要用简单启发
风险可以被计算的前提是:不确定性低(世界是稳定和可预测的);可选方案少(需要评估的风险因素不多);可以获得评估各可选方案所需的海量数据。
但事实上……(除了在书上),很少有满足条件的时候。
所以更多的时候,应该用简单的启发法来面对复杂系统,而不是用复杂对复杂。
作者举了个非常知名(塔勒布也老拿这个说事儿)的例子:哈里·马科维茨靠一个投资组合模型拿了诺贝尔奖,但是他自己投资就用的很简单的“1/N法则”(各种东西都买点儿)。
而且在真实世界中,这种粗糙法则效果居然还更好。
作者对这种悖论给出的解释是:数据量。复杂模型需要大量数据才能真正发挥价值,但是我们其实给不到那么大数据量。如果需要让那个诺贝尔奖的模型打败简单法则,需要灌入 500 年的数据。
与此对应,简单法则完全不需要什么数据。
从后视镜看,用复杂的模型更有效——总能找到一个复杂的模型去“预测”过去发生的事情。
但是,方法越复杂,需要估算的变量就越多,误差就越大。在一个充满不确定性(而非已知风险)的世界里,复杂方法考虑太多细节(无关信息),却又很容易忽略掉 unknown unknown。所以,当涉及不确定性的未来,简单的法则反倒更有效。
作者给出的建议是:不确定性越高,越应该简化;科学方案越多,越应该简化;历史数据越多,越应该使用复杂方法。
卷末广告
宣传一下我的小报童好了~
每天的灵感笔记会记在那里~ 已经 300+ 篇了。