黑天鹅:如何应对不可预知的未来

TL;DR

黑天鹅事件是指那些难以预测但是冲击性极大的事件。难以预测的主要原因是:1)现实是非线性的,极小的变动都可能会产生巨大的影响;2)人类的认知偏误,导致我们会忽略黑天鹅事件发生的信号;3)我们的社会「并不鼓励」预防灾难,因为灾后救助的行为更容易获得认可和奖励。人类最大的问题在于我们以为我们能够预测黑天鹅事件(未来)


黑天鹅理论并不是一个新的概念,人们多多少少都了解这个概念,Nassim Nicholas Taleb 在《黑天鹅:如何应对不可预知的未来》中提出并定义了「黑天鹅事件」:

  1. 它具有意外性,即它在通常的预期之外,也就是在过去没有任何能够确定它发生的可能性的证据。
  2. 它会产生极端影响。
  3. 虽然它具有意外性,但人的本性促使我们在事后为它的发生编造理由,并且使它变得可解释和可预测。

概括起来就是:稀有性、极大的冲击性和事后(而不是事前)可预测性。

生活在 2024 年的我们对于这个概念一点都不陌生,我们经历了 2019 年灾难性的 COVID-19,又在 2023 年经历了可能会是改变人类历史进程的 ChatGPT 发布,这些都是黑天鹅事件,两者都具有意外性,都产生非常大的影响,这种影响并不总是负面的,ChatGPT 就是正面的例子。在本书中,作者要强调的是「我们表现得就好像我们能够预测历史事件,甚至更糟的是,我们以为能够改变历史进程。既然黑天鹅事件是不可预测的,我们就需要适应它们的存在(而不是天真地试图预测它们)」重点在于解释了为什么黑天鹅事件是不可预测的,至于如何适应黑天鹅,作者在这本书中并没有给出答案。

作者认为黑天鹅事件之所以不能被预测主要是认知偏误

  1. 我们只关注从已观察到的事物中预先挑选出来的那部分,从它推及未观察到的部分证实谬误
  2. 我们用那些符合我们对明显模式的偏好的故事欺骗自己:叙述谬误。
  3. 我们假装黑天鹅现象不存在:人类的本性不习惯黑天鹅现象。
  4. 我们所看到的并不一定是全部。历史把黑天鹅现象隐藏起来,使我们对这些事件发生的概率产生错误的观念:沉默的证据造成的认知扭曲。
  5. 我们“犯过滤性错误”:我们只关注一些有明确定义的不确定性现象,一些特定的黑天鹅现象(而不关注那些不太容易想到的)。

我想从另外一个角度来解释为什么黑天鹅事件不可预测,总结下有三个关键点:

  1. 非线性系统:我们生活的世界是一个混沌系统(复杂系统),也就决定了我们几乎不能预测未来。
  2. 认知偏差:我们的大脑对世界进行了高度抽象,抽象意味着会忽略很多细节,而关注发生概率更到的事件,这也是为什么我们会对黑天鹅事件视而不见,因为我们从内心里觉得这件事情不会发生。
  3. 社会奖励机制:包括对预防性措施和前瞻性思维的不足重视,社会奖励机制往往偏向于对已发生事件的响应而非预防未发生事件。

非线性系统

线性函数指的是只有一个变量的函数,例如 y=2x,线性函数在直角坐标中的图形是一条直线。在 y=2x 这个函数中,y 会随着 x 的增加而增加,缩小而缩小,哪怕我们对 x 的测量有一定的误差,对结果的影响也都是有限的。例如当 x=9.8 的时候,我们四舍五入的认为 x=10,对结果的误差也就只有 0.4。

三个线性函数的图形都是直线。红色与蓝色直线的斜率相同。红色与绿色直线的y-截距相同。

非线性函数则意味着在直角坐标系中的,函数的图形不是直线,可能是曲线,甚至不是连续的。指数函数就是一个典型的非线性函数,非线性函数意味着 x 作为输入的变化,可能会对 y 产生很大的影响。例如 y=2x,如果 x 依然是 9.8,但是我们四舍五入到 10,那么测量结果将相差 132.6。(210 - 29.8 = 132.6)

y=b^x 对各种底数b的图像,分别为绿色的10、红色的𝑒、蓝色的2和青色的12。

现实世界中的复杂系统通常是非线性的,每天早上我都会关注天气,你应该也有注意到,天气预报中,时间越长就越不准确,即便是当天的预报很多时候也是不准确的,望着窗外下雨的街道,天气 App 却告诉我今天不会下雨,只是阴天。现实世界中的许多系统(如气候系统、生态系统、经济系统等)表现出强烈的非线性特征,即输入变化的微小差异有时会导致输出的极大差异,这是混沌的典型标志,这也就是著名的「蝴蝶效应」。

黑天鹅事件经常发生的很突然,但其背后的原因往往是多种因素长时间积累的结果。而混沌系统的预测却需要非常精确的初始数值和函数,即使理论上存在能够完全描述系统的函数,实际上我们无法获取所有这些信息,或者即使获取到全部信息,也可能因为需要的信息量非常巨大导致无法有效的处理。也正因如此,黑天鹅事件是无法被预测的。

认知偏差

认知偏差是人类自己主动忽略黑天鹅事件发生前的各种信号。黑天鹅事件并不像太阳东升西落一样每天都会发生,它发生的频率很低,导致我们对相关事件的记载也就比较少,相关的理论也不够多。而每天都会发生的事情,因为案例多、研究多,我们经常会看到相关的信息,这些信息也会强化我们的认知,认为与之相对的事情都不会发生,这种认知模式并非一种缺陷,而是在漫长的演化中形成的。

想象一下你现在要过马路,路上有两辆车正在行驶,其中一辆在你离很远的地方,而另一辆则要近很多,你会关注哪一辆车。我们几乎不需要思考就能得出结论,应该关注距离较近的车,从概率上来说它更有可能造成危险。注意力对于人类来说是稀缺的资源,而通过逻辑推理来计算结果就需要消耗大量的注意力,这也导致我们其实无法关注太多的事情,在处理危机的时候我们倾向于关注更重要的(发生概率更高)的事情。

在《思考,快与慢》中,Daniel Kahnema 介绍了人类大脑运行的两种模式:

  • 系统 1 的运行是无意识且快速的,不怎么费脑力,没有感觉,完全处于自主控制状态。
  • 系统 2 将注意力转移到需要费脑力的大脑活动上来,例如复杂的运算。系统 2 的运行通常与行为、选择和专注等主观体验相关联。

系统 2 的运行需要消耗大量的注意力,人脑实际上更倾向于使用系统 1 来处理日常事件,直到遇到系统 1 无法处理的事情的时候才会调用系统 2。例如当有物体超我们飞过来的时候,我们无须调用系统 2 去计算这个物体的初速度和飞行路线等等,只需要系统 1 我们就可以快速做出闪躲的动作。这种快速反应在我们遇到危险的时候能够显著提升我们的生存机率。Malcolm Gladwell 在他的书《异类:不一样的成功启示录》提出了一万小时理论,这一理论认为要在某个领域达到专家水平,通常需要大约一万小时的刻意练习,该理论正是基于系统 1 的学习模式。系统 1 通过反复的经验和模式识别,将复杂的信息和任务简化为直觉反应,我们将这一过程称之为「抽象」。而抽象就意味着关注事件的共同点,而忽略一些细节上的差异,不幸的是黑天鹅事件往往隐藏在被忽略的细节中。

Taleb 在书中所提到两种谬误又会强化这种模式。系统 1 有证实偏见的倾向,即倾向于寻找和重视支持我们现有信念和假设的信息,忽视或否定与之相反的信息。而恰恰又是因为我们会容易找到经常发生的事情的资料,而那些被忽略的细节却鲜有人关注,也难以找到与之相关的信息,这种现实情况又强化了我们的偏见(幸存者偏差)。这在面对黑天鹅事件时尤为明显,因为这些事件通常与我们的常规经验和信念不符,系统 1 会自动忽略或低估其可能性。

18 世纪苏格兰哲学家 David Hume 质疑了这种基于经验的推理过程的合理性,他认为从过去事件的发生归纳出未来事件将如何发生,并没有逻辑上的必然性。也就是说,仅仅因为某件事情在过去发生过很多次,并不意味着它在未来也必然发生。Hume 说得没错,遗憾的是他并没有给出问题的答案。

社会奖励机制

社会奖励机制也是影响我们预测和预防黑天鹅事件的原因,预防性措施(如完善的公共卫生基础设施、库存疫苗和防护设备等)如果成功,就不会有显著的「成果」展示给公众和决策者。预防的成功往往意味着「没有灾难发生」,这使得这些措施难以获得社会的广泛认可和奖励。在 COVID-19 之前,许多公共卫生专家和组织曾多次警告全球应对大规模流行病的准备不足。然而,这些预警和预防措施在当时并未受到足够的重视和投入。相反,当疫情爆发后,救治患者、疫苗研发和抗疫措施得到了巨大的资金支持和社会认可。对预防措施的投入不足也导致人们没有足够的动力去做预防。


现实的非线性、人类的认知偏差和社会奖励机制都指向了同一个结果——黑天鹅事件的不可预测性。但这并不代表我们什么也不能做,Taleb 在本书中没有给出答案,但是在后续出版的《反脆弱 : 从不确定性中获益》中给出了答案,他把事物分成三类:

  • 脆弱类:脆弱的事物喜欢安宁的环境
  • 强韧类:强韧的事物并不太在意环境
  • 反脆弱类:反脆弱的事物则从混乱中成长

脆弱的事物喜欢稳定的环境,无法应对环境的变化,因此对黑天鹅事件几乎没有抵抗力;强韧类的事物有足够大的防御力,黑天鹅事件可能会对它造成影响,但是影响不大;而反脆弱类的事物则喜欢变化,反脆弱的事物不但不会被黑天鹅摧毁,反而会从中受益。而我们要构建的,正是反脆弱性的事物。

反脆弱的事物恰如尼采的那句名言:

What does not kill me makes me stronger