举例:
在现实生活中,夫妻两人都带了家里的钥匙。万一哪天某人忘记带钥匙了,还可以依靠另一个人的钥匙开门。
◇备用计划 (PlanB)
和 “备用系统” 类似的措施是 “备用计划”。当你要做一些重要的事情或重要的决策,【不要】 只考虑一套方案——至少你要留一个备选方案。
现实生活中,总是充满了各种小意外。因此,再怎么精密的计划,都可能出现始料未及的纰漏。如果某个纰漏足够严重,会让你的计划流产。如果你事先准备了 “B 计划”,就不至于太尴尬。
◇系统化思考
前面说的这几条,相对而言都比较容易搞定 (至少是比较容易想到)。最难的大概是 “系统化思考”。
大部分人在考察一个系统的时候,往往陷入 “只见树木不见森林” 的认知缺陷。在这种局限下,许多 “单点故障风险” 你是无法察觉的。
而 “系统化思考” 要求你具备 “既见树木又见森林” 的能力,你还要能察觉到:系统各个组成部分之间是如何互动的 (正反馈、负反馈)。如果能做到这点,就可以察觉到更多的 “单点故障风险”。
关于 “系统化思考”,限于篇幅,就不展开了。推荐大伙儿去看 《第五项修炼——学习型组织的艺术和实务》 一书。此书是很经典的管理学名著 (俺已经上传到网盘),书中提及的 “5 项修炼” 分别是:自我超越、心智模式、共同愿景、团队学习、系统思考。最后这项修炼,是此书的重点/精华。
★防范措施的局限性
虽然刚才提到了一些单点故障的防范措施,但是有必要在结尾说一个悲观的论点——当某个系统的规模达到一定的程度,你有可能永远做不到 “消除 【所有】 单点”。
因为每个人的知识结构都是有局限性的,思维能力也是有局限性的。当系统的复杂性达到一定程度,必定会有一些 “单点” 处于所有人的盲区。如果这个系统的影响力足够大,当其中某个不为人知的单点发生故障,就会引发一次黑天鹅事件。
更具有讽刺意味的是:如果某个系统极度复杂。即使系统中发生了单点故障,你甚至在 【事后】 都无法找出 “单点” 在哪儿?
举例:
1987 年 10 月 19 日是全球金融史上有名的 “黑色星期一”。那天全球股市 (北美、欧洲、亚洲) 全都暴跌。当时暴跌的情况之严重,以至于香港联交所宣布 10 月 20 日至 10 月 23 日,股市及期市停止交易四天 (香港史上从未有过)。
股灾本身不奇怪,奇怪的是:在那天之前,没有任何重大的利空消息发布。
此事已经过去快 30 年了,至今对暴跌的起因,依然众说纷纭。维基百科的 “这个页面” 给出其中 5 种比较有名的解释。但这些都仅仅是猜测,真相依然未知。
为啥会这样捏?因为 “全球金融市场” 已经太大太复杂了。在人类社会中,很少有哪个系统的复杂性会超过它。这个系统中必定隐藏了很多无人知晓的单点。而且金融系统本身就具有很多 “正反馈机制”,会把单点故障产生的影响力成倍放大。再加上全球金融市场每秒钟的交易量都是海量的。即使有人想做 “事后调查”,面对的任务也如同 “大海捞针”。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注