长亭百川云 - 文章详情

2023:当我们都活成了“大模型”

浅黑科技

90

2024-07-13

浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。

2023:当我们都活成了“大模型”

文 | 史中

2023,大模型擦燃了科技进步的火,所有人的迷茫却凝成了脚下的冰。

不是说科技一定会换来幸福吗?我们和上天的契约失效了吗?

在我看来,技术的进步当然会给我们带来生活下去的智慧和勇气,只不过在 2023,启示藏得有点儿深。

建议你温一杯酒,找个阳光和煦的下午,细细体味。

(一)你我都是“高配版”的 ChatGPT 

对于奈何桥的设计,我有一些赛博朋克的想法。

我会在转世投胎的闸门口放一个巨型触摸屏,上面显示一个348页的《人类用户协议》,往下拉半分钟才能看见最后的同意按钮。

用户协议里有一行小字:“允许其他玩家读取您的行为数据。”

你选择“同意”,顺利降生;选择“拒绝”,则强制退出投胎过程。。。

我不是针对谁,在座的各位肯定都是签署过这个协议才来的,因为咱们“活法儿”都一样:

通过观察世间万物的行为来收集数据,然后把数据扔进脑袋瓜的神经网络里,用计算力输出决策,再付诸行动,让自己活下去,争取活得好;

当然,你在桥上看风景,也有人在楼上看你。你的行为也会成为他人决策的重要数据。

数据、神经网络、计算力,怎么这么耳熟??

这套操作,像极了大火的人工智能“大模型” ChatGPT 的工作流程。或者说。。。ChatGPT 像极了人脑的工作流程。

人脑就是一个高配版的 ChatGPT。

唐太宗说,以史为镜,可以知兴替;以人为镜,可以明得失。目前大模型虽然比人脑的精密差之万倍,但已足够做一面镜子:

它正面是照妖镜,可以让我们大脑的盲目、短视和不堪瞬间现出原形(我会在第二~四章讲);

它反面是放大镜,把大自然用亿万年塑造的人类精神映照得熠熠生辉(我会在第五~八章讲)。

它有大用。

好,我们开始。

不妨先简单科普一下大模型的大致原理。

大模型吐出一句话,原理类似于一棵树的生长:

1)人的提问,在大模型里形成一个种子,模型预测“下一个词大概率是什么”,就是种子在生长。

2)每预测出一个词,它就像树根固定在那里,模型再来预测这个词后面大概率是什么。

3)就这样一直预测一直爽,直到预测出休止符。就像一棵大树长出最后一片叶子。

这是马丁路德·金的著名演讲《我有一个梦想》,你甚至能感觉到这些文字是如何从大脑里流淌出来的。

注意!这里有一个鬼魅般的细节:

你在和 ChatGPT 对话时,会观察到一个非常有趣的现象:对于完全相同的问题,可以反复让它生成答案。它每次的答案都不同(不仅是语言组织不同,甚至信息要点也可能不同),但可以说都很“对”。

这是为啥嘞?

这源自大模型工作时的两个心法:

1)大模型工作时,首先会产生一个抽象的念头。但由于最终要呈现给我们一句“具体的语言”,它就必须向“念头”里添加随机细节。每次添加的随机性不同,答案自然就不同;

2)但是,具体到每一次特定的回答,随机性都会像薛定谔的猫一样坍缩成确定值——模型总会选择在这个条件下“大概率”正确的方向生长,不选小概率正确的答案。

这样说有点抽象。我们不妨拿自然界里“种子长成大树的过程”来类比:

橘生淮南则为橘,生淮北则为枳。

首先,在不同的环境中,种子都会以(它认为)最正确的方式生长,由于环境千变万化,结出的果实当然非常不同;

其次,橘子不论长在哪儿,也永远变不成西瓜。因为它就没有那个基因。

其实我们人脑思考问题的方法,也有类似的特点。

不信咱做个实验:

让你写一篇200字的作文歌颂祖国母亲。你写完一篇交给老师,马上让你再写一篇,你写出来的肯定不会一模一样。而且环境里的“随机性”变化越大,你写出的东西变化也越大。

让你在咆哮的金沙江边写,你会写出祖国山河秀丽;让你在庄严的天安门广场上写,你会写出五十六个民族大团结。

你说哪次的答案对?显然都对。

接下来灵魂拷问来了:

数学题不都只有一个正确答案吗?为啥 ChatGPT 或人脑面对的问题却有无数个“都对”的答案?

如图中暗示的那样:大脑的回答,是对现实的“拟合”,而非严格的“逻辑演算”。

(二)世界有标准答案,但你不配知道

因为考卷上的数学题“条件是完全的”;

而我们日常面临的题目“条件不全”。换句话说,需要在信息不完全的情况下做出决策。

说到信息的完全和不完全,我想到了一个有趣的例子,围棋。

话说,下围棋的盆友都知道,对弈的胜负好像和“先后手”没有必然关系——先下的可能赢,后下的也可能赢。

但从数学上看,情况不是这样。一旦规则确定(包括贴目规则),则一定有一方存在必不败策略,要么是先手,要么是后手。(必不败的意思是:只有胜利或和棋两种情况)

这是啥意思嘞?

也就是说,当信息处理能力没有瓶颈时,“谁先下”是决定围棋胜负的唯一因素。

如果你和中哥的大脑都是算力无上限的计算机,那么咱俩下棋,在抽签决定谁先走棋的一瞬间,这局是谁赢(或一定平局)就已经知道了。

同时,双方每一步的套路也定了,任何一方不按套路走棋,都会导致自己失败(因为你背离了最优策略纳什均衡)。

这就是著名的“策梅洛定理”。

策梅洛

但是问题在于,现实生活中,以人类可怜的智商,以及人类发明出的计算机的可怜的智商,都不足以穷举所有可能性,从而算出来到底是先手赢还是后手赢。

也就是说,虽然围棋是一个和应用题一样的“完全信息博弈”,但是由于信息量太大,人们只能被迫把它简化为“不完全信息博弈”。这就会造成,真正下棋的时候,有时候先手赢,有时候后手赢。

只有上帝知道,其中一方一直吃着亏呢,但它就是不告诉我们是谁吃亏,所以这个“无聊”的游戏才能延续至今。

当然这也不怪人类不争气。围棋的状态大概有10³⁶⁰种,而宇宙中的原子也大概只有10⁸⁰ 个,宇宙诞生更是只有可怜的10¹⁷秒。起码在我们这个宇宙里,不太可能有人揭开围棋的终极答案。

所以,面对“不完全信息博弈”时,不管是人还是人工智能(例如 AlphaGo)的严肃对策都是差不多的:用大量已有的对弈数据,训练出一套神经网络模型,从中“拟合”出规律,从而预测在某个具体状态下,胜率最大的一手是什么。

这里我掀开 AI 的脑壳,大家简单感受一下具体过程:

训练阶段

1)在大模型中存在几千亿个参数,每个参数就粗略相当于人脑的一个神经元。

2)用大量数据训练模型,就是在调整参数,就像人脑在调整神经之间的连接关系和轴突树突之间的连通强度。这些参数,就内嵌了训练数据里的各种概率关系。

就像下图↓↓↓

预测阶段

1)把一个问题输入大模型,它就会让数据在参数里流淌。输入的信息不同,“流经”的参数也不同。这个过程就像人类思考时不同神经元被电位激活。

2)最终信息就会像大河一样流出一道蜿蜒且独特的形状。这条大河的终点,就是模型认为的大概率正确的答案。

就像下图↓↓↓

无论人脑还是AI,一旦被迫运用了“模型”,判断就从严格的“逻辑方法”降级到了“统计方法”。

有趣的认知来了:

1)如果把“逻辑方法”视为“绝对理性决策”,那么人脑和 AI 所运用的“统计方法”可以视为一种“不绝对理性决策”。

2)模型越大,参数越多,决策的“含理量”就越多。但只要用到了模型,它就对世界进行了“约化”,从而不是绝对理性。

3)面对同一个问题,A、B两个大模型给出了不同的答案,但是从逻辑上,A和B都无法严格证明自己的答案比对方更正确。‍

以上,就是面对一个问题可以有无数“正确答案”的根本原因。(也是人类几千年来无休止争吵,却始终无法达成一致的根本原因。)

说到这,我们已经解决了一些基础的技术问题。

现在我们终于可以回到开头的任务:拿 ChatGPT 作为镜子,照照人类自己。

**ChatGPT 强在:**学会一些道理,就能成为最好的自己,尽一切可能给出它的认知范围内正确概率最高的答案;

**人类弱在:**学了很多道理,还是过不好这一生,经常会做一些从概率收益上看很愚蠢的决定。比如明知道冰淇淋不健康,但有时候就管不住嘴。

比如↓↓↓

只有人类里的智者,那些经常驾驭复杂思考的精英,才多少带点 ChatGPT 的气质。

比如芒格曾经说:“普通人可以通过长期不做蠢事来积累巨大的优势。”

比如巴菲特曾经说:“用亏损的概率乘以可能亏损的金额,再用盈利概率乘以可能盈利的金额,最后用后者减去前者。这就是我们一直试图做的方法。”

你看到了么,这对老搭档说的基本是一个意思——做事情之前,要用足你的大脑,像 ChatGPT 一样去充分思考概率,然后严格按照概率收益最高的那个方案去行事。

可为啥很少有人类能做到巴菲特那样呢?

很可能因为,我们的大脑决策机制更加复杂,有很多模型在做决策——不只有“大模型”,还有“小模型”。

这么多模型在一起,堪称颅内《绝地求生》。

可能就在你纠结“要不要吃冰淇淋”的当口,几个模型已经在脑子里骑砖甩狙杀疯了。。。毒圈缩小,最后只有一个意见“吃鸡”,而你却以为这个意见来自那个唯一的“我”。

吃鸡的那个,很可能不是你脑子里最理性的那个模型。。。

这么说来,为了过好这一生,我们还得认识一下大脑里的其他模型。

你的大脑里,时刻有一群“模型”在战斗。

(三)大脑里的“权力斗争” 

情绪,就是一个非常重要的“小模型”。

比如,一种典型的情绪是恐惧。

当你在森林里探险,看到一个蜿蜒的物体,会马上产生对蛇的“恐惧”情绪。这种情绪瞬间接管你的四肢,你就会后退。

你发现了没,情绪这种小模型有三个特点:

1、它产生决策很快。

甚至在你没完全搞明白发生了什么的时候,它已经驱动你的身体后退了。

2、参与推理的数据极少。

耳眼鼻舌每时每刻传来数据都如“弱水三千”,但小模型“只取一瓢饮”。这就导致它的判断非常容易出错。

3、情绪决策优先于强理性分析决策。

你看到“蛇”,会不自主地后退。然后定眼儿一看不是蛇,你还可以回去。但你很难一开始就控制住自己不后退。

明显小模型的理性更弱,为啥还优先级这么高嘞?

因为人类的祖先在大自然里生活,危机四伏,遇到危险如果短时间内不作出反应,早就成了狮子老虎的点心。反应错了倒没啥,被大家笑话两句也就过去了。。。

所以那个时候,人类进化出了情绪这种**“快但不准”的小模型**;活过这个阶段,人类才有资格面对更复杂的决策,才进化出了**“准但不快”的大模型**。

这个进化“包袱”,导致了无论在昨天今天还是明天,我们都会先用小模型“决策”,再留出较为充裕的时间用大模型进行“修正”。

刚才这些只是基本原理,相信很多人早就了解。

我要讨论的真正问题在于:大模型在什么情况下会对小模型进行修正,以怎样的速度进行修正,人和人之间可是天壤之别。

喝酒的浅友都知道,人在喝酒前后,对于同样刺激的反应会很不同。比如,正常状态下人听到一些不痛不痒的话可能没有什么反应,可是喝酒之后人听到同样的话就会傻笑或者哭泣。。。。

这背后一个重要的原因就是:酒精抑制了大脑中“大模型”的活动,从而影响了“大模型”对“小模型”的修正能力。

酒后的大脑,小模型容易吃鸡。

有关这种模型之间修正关系,有个有趣的例子。

心理学教授理查德·戴维森曾经去印度,给一群修行的僧人和普通人进行了对比实验。

在手上绑一个装置,它会扎你一下,让你很疼。可气的是,它在扎你之前十秒还会发出一个提示音,告诉你十秒之后你会被扎。然后科学家探测受试者的大脑活动。

普通人一听到提示音,大脑就开始剧烈活动,等到被扎之后很久,大脑才慢慢平息。

修行人则不同,他们听到提示音之后大脑仍旧平静,直到被扎的一瞬间大脑才开始剧烈活动,然后很快就恢复平静。

理查德·戴维森给僧人搞了一脑袋电极。

这说明,在情绪出现的一瞬间,修行人就快速用理性对它进行了修正。

你看,别以为修行人和普通人的区别只在于有没有头发,其实这两种人脑瓜里“大模型”对“小模型”的修正能力完全不在一个等级。

结论来了:

1)每个人脑子里都有大大小小N个模型,这些模型就像是一个个国家,在一起组成了每个人的“模型世界”。

2)真实世界没有一个“世界总统”,大脑中也没有“绝对权威”,模型们需要靠自己长期的发展来一点点争取各自的话语权。

3)当一个人的大脑里所有的模型都已经尽力争取了自己的话语权,形成了某种稳态,属于这个人大脑的“模型权力格局”就形成了。

显而易见,一个人的“模型权力格局”如果和它要面对的情况不匹配,就会降低ta的竞争力。

比如 A 跟别人发生了冲突,在法治社会最好的方法当然是叫警察来处理,但假如 A 的大脑各个模型经过短暂博弈,还是驱动他来了个痛快的现世报——拿酒瓶子把人家开了。

这大概就是“和法治社会不匹配的模型权利格局”。(注意,是不匹配,不是错误。)

由此说来,黄、赌、毒、甚至游戏、短视频、高热量食品饮料,也是在不同程度卡人大脑里“模型权力斗争”的 Bug 而形成的商业模式。

还有一个典型的例子就是股票市场。

成熟且稳定的股票市场是一个典型的反复博弈环境,在这里你可以泾渭分明地找到两类玩家:

长期盈利者和长期亏损者。

查理·芒格和沃伦·巴菲特

长期盈利者在做投资决策时,“模型权力格局”中大模型占据更大的话语权,所以他们可能会在某一笔交易中亏损,但是由于大模型对概率的充分计算,博弈次数越多,总体就越可能盈利。

长期亏损者则相反,他们做决策时“模型权力格局中”小模型占据更大的话语权,所以他们可能会在某一笔交易中盈利,但反复博弈时,由于概率并不站在他们一边,长期可能是亏损的。

你看到了吗?越是需要“反复博弈”的环境,就越对“模型权力格局”中大模型占优的人有利——股市里残酷的优胜劣汰正是这样实现的。

它背后的原理是“大数定理”:博弈次数越多,博弈结果的“算术平均数”就越接近你的策略中所隐含的“期望值”。

这张图显示的是“扔硬币看正反面”实验结果。扔的次数越多,正反面比例越接近1:1。图里10根线表示独立用10枚硬币做的测试结果。

那么,一个有意义的问题是:

每个人大脑里的“模型权力斗争”到底是怎么形成的呢?

有一个经典案例,叫做“延时满足实验”。

实验者在一些小孩子面前放了棉花糖,并承诺如果坚持15分钟不吃,就会得到第二块棉花糖。

实验分成了两种结果,一些小孩遵循了“小模型”的结论,直接吃了棉花糖;另一些遵循了“大模型”,等到了第二块糖。

最初实验者的结论是:孩子的自控力存在天然差异。

但是,后续一位名叫道格拉斯·肯里克的学者重复了这个实验,并且在他的书《理性动物》里推翻了最初的结论。

因为他发现了一个隐藏的变量:孩子和实验者的信任关系,对他们“吃不吃糖”的选择影响很大。

毕竟,一个陌生的叔叔说让我等15分钟,万一骗我怎么办?我可能连这块糖也没了。。。

也就是说,当他们判断自己处在一个信任度高的稳定博弈环境,则会倾向于“长期博弈策略”,当他们判断自己处在一个信任度低的不稳定博弈环境,则会倾向于“短期博弈策略”。

这个结论很好地体现了人脑中各种模型的博弈过程:人脑里的“模型权利格局”并无对错,它们往往来自于环境塑造,也适应塑造它们的环境。

权力格局的可塑性,看来是进化造就的高级生存策略。

为了后面行文方便,我们不妨简化一下:

把小模型占优的策略称为“一颗糖策略”,把大模型占优的策略称为“两颗糖策略”。

然后我们来讨论一个现实问题:

我们应该以怎样的策略面对当下的环境呢?

(四)“命运场”和面对世界的调参 

要回答这个问题,我们首先得回答:2023 我们面对的博弈环境是怎样的嘞?

我来展示一种流行的看法:平稳而复杂。

1、你粗略一撇,看到的是平稳。

大概从2018年开始,我们的社会的几大因素“经济”、“技术”、“基础设施”和“社会治理”就都站在一个相对平稳的高台上,可以说我们浸泡在一种“高水平的稳态”里。

就像一条高速路,车道清晰,边界分明。沿着车道行进,诸事皆宜;要是犯糊涂撞上护栏,那“车毁人亡”在所难免。

就像酱↓↓↓

2、但这并非全部,你要用放大镜,才能看到复杂。

普通人表达权的历史性崛起让个体命运被空前关注;同时互联网让信息光速裂变,很多“小共识”很容易凝聚。

这些小共识如碎石一样坚硬,被随机洒在高速路上。你的车一不小心压到上面,就会不知向哪个方向打个滑。

就像酱↓↓↓

这里我们引入一个“命运场”的概念。

我们每个人,在选择开车策略的时候,各种命运以不同的概率型成一个又一个圆环,这就是鬼魅般的“命运场”。

而因为每个人生活策略选择的不同,命运场也很不同。如果我们拥有无限的计算力和数据,我们甚至可以算出每个人的“命运场”,把各种概率像圈圈一样画在它周围。

“一颗糖策略”命运场的随机性大于“两颗糖策略”。

就像酱↓↓↓

假设我们就在这样的路上赛车,最终选择的策略会很相似:

1、一旦压到石子就会打滑,打滑可能撞上护栏,为了把坏的结果概率降到最低,我们应该尽量靠路中心走。

2、速度越高,换道越频繁,事故概率就会指数提升。为了规避这类情况,我们应该降低车速,较少超车,更不要尝试排水沟过弯。

3、先胖不算胖,后胖压塌炕;不求走得快,只求走得远;找个长雪道,慢慢滚雪球。

这是典型的“两颗糖策略”,从某种角度来看,这种策略非常无聊,它的核心精神就是:“各安其位,长期重复。”

来自 OpenAI 的两位人工智能科学家斯坦利和雷曼曾经写过一本书《为什么伟大不能被计划》,其中提到:环境筛选压力大时,生物的生存策略会趋同,从而失去多样性。

说的就是这个道理。

“两颗糖策略”比“一颗糖策略”可能压到的石子更少。

但竞争中处于劣势地位的竞争者,很不甘心使用“两颗糖策略”,因为风险降低,逆风翻盘的可能性也降低了。

那弱者有更好的策略吗?

大家都读过“田忌赛马”的故事,孙膑上知天文下肢残疾,他建议田忌用下等马对齐王的上等马,从而2:1赢得整场比赛。

你看,这个故事告诉我们:弱者不得剑走偏锋嘛,哪能各安其位?!

非也,田忌的策略只适合“单次博弈”。

你孙膑聪明,齐王也不傻啊,如果再赛一场,齐王还会按照“上中下”的顺序出马么?

如果反复比赛,最终肯定会形成一个局面:齐王每次会随机出马,田忌也只能随机出马,这样算下来全场比赛(当时的规矩是三局两胜)田忌的胜算只有六分之一。

这是田忌所能得到的最好结果,是一个纳什均衡——这就是田忌的“命运场”。(实际上孙膑知道这一点,所以他把那场比赛作为最后一场,让田忌下了重注,后面就不和齐王玩儿了。绝交式赛马。。。)

你看到了吗?在一个规则明确且反复博弈的场景里,无论强者弱者,最好的策略都是“各安其位,长期重复。”

为了改变命运,我们必须改变命运场;

为了改变命运场,我们必须“面向世界调参”——想办法从“一颗糖格局”变成“两颗糖格局”。

这个转变其实非常难,它的核心就是“八字真言”:你要能感受到概率。

这样说有点抽象,我们把它具体分成三点:

第一,你得感受到收“概率收益”。

人脑其实非常不善于计算概率,有时候你得借助纸笔或者计算器。

有一个著名的思想实验:给你两个选项。A,直接给你100万;B你有50%几率拿到1亿,有50%几率拿到0元。你选哪个?

如果你能感受到概率收益,那么你应该选B。

至于为什么,第二章里我已经让巴菲特老爷子介绍过了:你要用盈利的概率乘以可能盈利的金额,哪个大就选哪个。

也就是说,参加这个实验,你有可能既没拿到1亿,也没拿到100万,你什么都没拿到,但你做对了,因为你使用了“两颗糖策略”。

如果你真的最后什么也没得到,你不该懊悔,而是应该默念一遍罗翔老师的名言:“我们只能做我们认为对的事情,然后接受它的事与愿违。”

图中这两种命运场的概率收益不同。

第二,你得感受到“概率风险”。

风险就像一条河。

很多人心里的河岸就是一个理想的线条,左边是岸,右边是水。严格沿着岸走就不会落水。但真相怎么可能是这样?

河岸蜿蜒曲折,而且有的地方是硬土,有的地方是烂泥,它们以概率分布在整条河岸线上。所谓“常在河边走哪有不湿鞋”,就是考虑了概率因素。

如果能感受到概率风险,你就应该认同芒格那句话:如果知道我会死在哪里,那我将永远不去那个地方。

甚至可以把这句话推广一下:如果知道我大概率会死在哪里,那我将以小概率去那个地方。(当死亡概率为100%时,这句话就等效于芒格那句话。)

如果你能感受到一些风险,就让命运场远离它。

第三,你得感觉到概率的实时变化。

比如概率收益的变化:

股市在成长的初期投机氛围严重,你的投资策略就应该偏向于短期,股市各方面制度都完善健全时,你的投资策略就应该偏向于长期。

比如概率风险的变化:

当社会风气较为宽容时,你可以更无顾忌地表达;当社会风气较为严苛,你的言论就应该转变得更加谨慎。

根据数据来“构建你的参数”,根据新的数据来“调整你的参数”,这个过程就是经典的“贝叶斯理论”,它也是人工智能的理论基石之一。

不知道你发现了没,有关“命运场”和“调参”理论,其实和佛学的“业力说”不谋而合。

佛教讲究你的行为和思考都在影响你的业力,从而影响你的命运。但如果去掉宗教化和神秘化的部分,“业力”在微观层面的推动力不就是“概率”么?

从这个角度说,高僧大德很可能都是概率高手嘛!

好了,说到这,你大概以为我要总结陈词了吧?

人人都把自己活成“大模型”,世界将会变成美好的明天。

非也。

以上,其实是在一层层构建“我执”。

“我执”可以把很多具体的“小问题”解决得很漂亮,但它解决不了“大问题”。

接下来,我试着一点点破除“我执”。

(五)一切模型都是对世界的“过拟合” 

我们面临一个灵魂拷问:

进化没有把所有人规训为凡事都靠大模型修正的“概率人”,是还没来得及做到,还是根本做不到?

我的答案是:根本做不到。而且没必要。

我们之前说过,一切模型,不管多大,在宇宙的复杂性面前,都是小到不能再小,失真到不能再失真的局部归纳。

为了让你切身感受这个有趣的原理,我们不妨一起做个思想实验:

1)一个未知的星球,山川险峻,地形复杂。

2)这个星球上海拔越低的地方,食物就越充足。

3)你作为一个探险者降生在这个星球上随机的一点上,你应该怎么办?

你大概会沿着山坡往下走,直到走到一点A,从A往任何方向走,都比A高。你就坐在这安营扎寨,了此一生。

你使用了一个标准的“梯度下降”算法。

但你有没有想过,如果你往高处走,翻过这座山,会不会找到一片更低洼,食物更丰富的地方?

注意!没人禁止你翻山越岭,我只说越低的地方食物越丰富,可没说你爬到山上就会饿死,你只是可吃的东西少一点。

你可能会说,那好吧,我就鼓起勇气翻过一座山,果然找到了更低的地方B,我可以安营扎寨了。

我接着问你:眼前有一座新的更高的山,可能后面隐藏着更深的低地C,你还翻吗?

你可能还会翻。

那我接着问你:如果此时,眼前出现了一座比珠穆朗玛峰还高的山,里面可能有各种危险,你绞尽脑汁,也算不出不自己有多大概率翻过这座山,你还翻吗?

我讲这个故事,其实是想说:任何模型和算计,在真正复杂的自然环境中都会有边界,它只能用来找到“局部最优解”。

无论你使用什么模型,在遍历之前都无法100%找到星球上的最低点。

你甚至可以理解为:任何模型,都是对训练它所用到的数据的“过拟合”。(只不过“过拟合”的程度不同)

“过拟合”就像围绕某个点打转

你还记得我们之前提到的命运场吧?

你根据世界调整了半天参数,最终为了避开撞上墙壁的结果,收敛了自己的命运场。

但收敛命运场的时候,你也同时收敛了自己命运的可能性。你就像那个可怜的探险者,永远徘徊在A点。

如此,你可能比你目之所及的人都过得好,但也仅此而已。

当然每个人可以有自己的选择,但是,如果像第四章所述,所有人都调整参数,选择了同样的生存策略,那么就没有人会翻越山谷,找到新的栖息地。大家的“命运场”全部重叠在A点周围。

就像这样↓↓↓

此时,如果这个山谷发生了环境巨变,比如一颗陨石砸中了它,那对不起,等待所有人的命运只有一个:团灭。

结论很明确:“多样性”对于种群来说是福音,“高度共识”对一个种群来说是危险的信号。

就此,我们推翻了“第四章”的某些结论。

在第四章,我悄悄用了“赛车”这个词,预设了“生命的目的就是赢得竞赛”。但事实上,没有一条自然法则可以推导出“生命的目的是赢得竞赛”这个结论。

如果你把生存的目的当成竞赛,你的生存策略很容易就变成“围绕A点终老一生”,从而和一些同类进入“内卷的共识”,陷入囚徒困境。

这里,我们不妨更新一下结论:

1、生命没有目的,只有两条底线,“生存”和“繁衍”。突破这两个底线,生命就会掉下牌桌。(就像一个比天还高的山,不可能有人翻过去,那么对面再水草丰美也和任何生命无关。)

2、在不涉及生命的底线时,做“新”的事情,比做“对”的事情更有利于种群的总体利益,也‍可能更有利于个体利益——你不妨从环形公路上找一个出口开下来。

就像这样,人们不只围在一个点打转。

而当你一直向远处走(而不是围着目标A绕圈)的时候,你更可能找到比A更好的B。

这么说太抽象,没关系,在《为什么伟大不能被计划》中,作者举了很多例子,我帮你转述几个:

约翰尼·德普儿时的梦想是成为摇滚明星,但他的乐队一直没起色。不过他通过乐队认识了一位化妆师,并且和她结婚,通过她认识了尼古拉斯·凯奇,凯奇把德普介绍给自己的经纪人,德普欣然接受,才走上了演艺道路,成为家喻户晓的明星。

你看,德普的目标是“摇滚明星”,但无论怎么折腾,他就是无法达到这个目标;德普没有固守在这个目标上,而是尝试新东西,反而最终获得了更成功的人生。

如果德普一开始就铆足了劲儿去当影星呢?那大概就跟“摇滚明星梦”一样,也是竹篮打水。

你可能好奇:为啥我就断定德普成不了呢?

这背后的原理非常反直觉。

德普的“The Kids”乐队

(六)你无法成为你想成为的人 

我用另一个例子帮你感受:

OpenAI 的小组曾经做过一个“图片繁育”的网站。这个网站的工作原理是:人们可以在20张图片里选择一张,然后网站会根据这张图片随机变异,得到新的20张图,你可以一直点击,它就一直变异。

这种“点击-变异”的过程就被称为“图片繁育”。

图片繁育N代(通常会上百)之后,就会出现在人看来有意义的图片。

当然这不稀奇,毕竟人的智慧和文化在每一次挑选的过程中渗入了图片。于是人们得到了汽车、骷髅之类的图案。

但真正有意思的事情来了:你得到汽车图片的前提是,你并没把汽车当做目标。

换句话说,如果把得到汽车当做目标,你就繁育不出汽车。。。

实际上,这个汽车图案,是由一个外星人图案经过变异得到的。(那两个眼睛变成了汽车的轮胎。)

你想想看,如果你的目标是繁育一个汽车,那你怎么可能想到先去繁育外星人呢??

回到德普的例子,如果德普最初的目标想要当影星,他怎么可能想到先去当歌手呢??

你可能玩过一个叫《奇怪的大冒险》的游戏,自然界就有点像它。你越想要啥,越得不到啥。

不妨再举一个书中的例子。

基因证据表明,人类是从一种叫“扁形虫”的生物演化而来的,扁形虫和今天的人类不能说不像,简直是毫无关系。

现在,让你当一把上帝,给你一堆“扁形虫”,你负责把它们繁育成高智慧的人类。(事实证明这是可以做到的,因为大自然就做到了。)

你会怎么办?

如果动用“大模型”的目标思维,你应该给所有扁形虫测智商,然后选择“智商”最高的继续繁育。那样。。。你绝对繁育不出人类。。。

你唯一有可能繁育出人类的方法,就是不按照特定“目标”对它们进行筛选,而是让这种虫子不断往“新”的方向变异,哪怕看起来很蠢,只要是“新”的变异就好。

这样的话,经过一段时间,你会得到10086种新生物,然后你可能会从里面发现人类。如果没发现,就继续等待它变异出1008600种新生物,直到等待几亿年,甚至几十亿年,等出人类。

你发现了没,这,其实就是大自然造人的路径。没有一种方法比它更简洁!

造物主像是在往星球上一直倒水,水满了就会溢出山口,满了之后又会溢出山口,足够长的时间之后,就越来越有机会覆盖到整个星球的最低点。

回到我们的日常生活,你会发现两种成功者:“巴菲特型”和“马斯克型”。

这两种人有啥不同?我们不妨听听他们相互如何评价。

芒格评价马斯克说:他喜欢啃硬骨头,我和巴菲特喜欢简单的。

马斯克评价巴菲特说:老实说,我并不是巴菲特的粉丝。 他每天就是坐在那里,阅读各种年度报告,而这些报告超级无聊。

总结一下就是:

巴菲特善于利用较完全的信息,在既有的世界里耕耘;

而马斯克善于利用不完全信息,在未知的世界里寻找。

所以巴菲特炒股一辈子还在炒股;马斯克从电动车到储能到隧道挖掘到火箭卫星到twitter,没准哪天就上火星了。

你可以说巴菲特是一个“手艺人”,也可以把巴菲特归为“利己主义者”。

但大自然的宽容之处在于:没有一种机制避免“利己主义者”产生。

幸运的是,并不是所有人都会变成巴菲特那样的“概率人”。

你有没有发现,成为老巴是很难的?

你必须在一生的时间里,一直进行反人性的自律,事事都交给“大模型”和“概率”去修正。

别说你我了,就连伯克希尔的第三大合伙人瑞克·格林也没能做到。1983年格林因为心急,使用杠杆投资,在经济危机中陷入困难,不得不把伯克希尔公司的股票低价卖给巴菲特,自此下了牌桌。

不客气地说,要想成为巴菲特,达到五祖的“时时勤拂拭”都不够,你得到六祖的“本来无一物”境界。(事实上巴菲特也不能做到事事都讲概率,比如他喜欢喝可乐,这个选择一点儿都不“理性”。)

一个普通人成为“马斯克”的可能性,也许要比成为“巴菲特”更大呢。

你发现没?进化在我们每个人的人性里都植入了四个字:喜新厌旧。

“简单的东西”很容易重复,成为无聊的体验;而为了寻找新的体验,我们只能探寻“更复杂的东西”。好奇心促使每个人的认知逐渐攀登向高级。这才是学习最基本的动力学过程。

而“好奇模式”其实是一个小模型。

小模型提供更宽阔的“命运场”,反而在很多情况下能解决“大”问题。

这里面好像藏着生活解药。

(七)放松缰绳 

心理学家乔纳森·海特曾经提出过一个经典的隐喻:“象与骑象人”。

意即情感为大象(自动化),理性为骑象人(控制化)。骑象人以为自己可以驾驭大象,但大多数时候,骑象人都去不了象不想去的地方。然而象也不是完全自由,在它的意图不够强烈的时候,最终去向还是会受到骑象人影响。

那我们应该怎样利用“象”的好奇来帮助我们过好这一生呢?

答案可能是:放松缰绳。

我们不妨继续讲几个机器人的故事。

很多浅友都知道,阿西莫夫曾经提出机器人三大定律。但是却很少有人知道,阿西莫夫可没把“三大定律”当好事儿说,在小说《转圈圈》里把它提出来,就是用来嘲讽的。

在这篇小里,受困的人类派机器人“速必达”去危险的地方开采硒矿。

但因为机器人要同时遵守第二定律(机器人必须服从人类命令)和第三定律(机器人必须保护自己),速必达就在那个矿旁边转圈圈,一圈又一圈。。。

你看到了吗,这和在“高速路”上绕圈圈的我们何其相似!

三大定律的本质就是“目标导向”。可是为了达到这些目标,偏偏违背了这些目标。。。

OpenAI 那两位科学家还做过一个类似的实验——让机器人学走路。

实验分为两组。

一组是“目标导向”:既然目标是走路,他们就把摔倒设置成一个“负反馈”。于是机器人为了避免摔倒做了各种努力,但就是学不会走路。

一组是“好奇导向”:机器人随便干啥,只要能用身上的零件做出“新鲜的动作”就行。

于是机器人花式摔跟头,研究员还在一边叫好。然而,在花式摔跟头的同时,机器人理解了“平衡”这件事儿。这样训练出来的机器人,不仅会摔跟头,也“恰好”会走路。。。

还有一个实验,是“训练机器人走迷宫”。

一组是“目标导向”,机器人接近出口,就给更多奖励;另一组是“好奇导向”,撞墙还是走门您随意,只要能玩出花来就行。

结果你肯定猜到了。好奇导向这组机器人在横冲直撞的过程中理解了“墙”和“门”的定义。之后给它一个“走出迷宫”的指令,它就能直接走出去。而目标导向那组机器人,熟练地掌握了“跟墙较劲”和“钻牛角尖”等技能。

这个实验还可以升级为“狗狗走迷宫”,结论还是一样的。

让人又笑又气的是,有些人很容易理解机器人或傻狗狗走迷宫时的局限,但面对复杂到超越自身理解能力的高维难题时,他们就瞬间变成了狗勾,开始钻牛角尖。

我们不妨用客观的眼光审视一下自己的国家。

过去几十年,中国比世界上绝大多数国家都鼓励创新,我们也创造出了很多从1到100的创新。这些有目共睹的成绩都是“好奇模式”驱动的。

而美国限制中国的策略就是通过“卡脖子”把中国从“好奇模式”扭向“目标模式”。连气都喘不上来的时候,就顾不上好奇了,肯定得先集中精力解决脖子的问题嘛!

结果也很明显:

首先,这几年我们对芯片等“卡脖子”技术的针对性引导,一定程度上占用了我们本来用于探索和创新的资源。

其次,当外部压力变大时,人们的恐慌情绪也会蔓延,更多人会倾向于留在“洼地”里,不愿承担风险,不去探索未知,形成了前述的“环形内卷高速公路”。

但事情不全是悲观的。

就像《论持久战》中说的那样,中国是一个很大的国家,地大、物博、人多、兵多,能够支持长期的战争。

这种战略纵深当然不止存在于军事逻辑,还存在于经济逻辑。

换句话说,如果我们的资源总量庞大, 即便一部分资源被“目标”牵制,还有另一部分资源能够支持自由创新。

另外,我们仍然具有很强的“数字经济底座”和极大的“人才红利”,这都是命运的重要变量。(对此我还是充分乐观的)

更何况“卡脖子”策略对美国自身的伤害也很明显,很多证据表明,脖子很难卡得更紧了。这个问题我在《2022我们在幽暗的深谷里守护一朵花》讨论过。

实际上,“象与骑象人理论”同样可以用来观察中国这个群体。

虽然在外部的压力下,骑象人会拉紧缰绳,但是随着局面进入稳定的“新常态”,拉紧缰绳的边际效应会递减,放松缰绳成为必然。

这也是当前政策鼓励民营经济的内在逻辑。

所以结论是:

在国家层面,我们有理由重塑对“小模型”的信心,看到现实中对于边界探索的收益重新“变甜”的趋势;在个人层面,更有理由重塑对“小模型”的信心,无数事实已经证明跟随直觉和好奇可以给我们带来超额收益。

当然,放松缰绳并非没有代价。

“命运场”覆盖范围变大,虽然提升了你找到新栖息地的终极期望,也不可避免地导致摸着石头过河时出现“深一脚浅一脚”的情况——你命运各个“章节”之间的方差会加大。

当你在石头之间纵身一跃时,脚下也许是万丈悬崖,此时你需要一种人类精神中最稀缺的美德——勇气。

(八)你一生的故事 

勇气来源于祛魅。

英国神经科学家阿尼尔·赛斯在他的书《成为你:意识的新科学》中阐述了一个研究成果,这就是“预测处理理论”。

它把人脑描述成一个“预测机器”。

要说明这个预测机器的来龙去脉,我们可以回到比扁形虫还要早的祖先,比如某种水母。

水母有最初级的神经系统,但它的神经是只能对很强的物理刺激作反应,例如碰到石头就会收缩、转向。

但是随着生物演化,神经系统更加复杂,它就具备了对微小物理刺激作反应的功能。比如,扁形虫就会利用打到它身上的光线来感受周围环境,有石头就绕开。(这个玩意儿就是眼睛,实际上,在进化谱系上,眼睛的出现是早于大脑的。)

这就是涡虫(一种扁形虫)利用眼睛感受光线,然后避开光线。

随着神经系统越来越复杂,不仅要能感受光线,还要能感受震动(声音),还有化学物质(气味),这就需要“更复杂的模型”和“更大的算力”来承载,于是大脑形成了。

一个生物周围会不断有光线、声音、气味出现,体内也不断产生电学、化学信号,所以大脑对这些刺激的反应也是不能间断的,这就形成了一种对周围环境的“实时主动预测”。

把这种永不停歇的机械预测串联起来,生物就产生了“自我”的意识。(当你睡着了,你的大脑暂停预测,你就没了“自我”)

事实上,如果你接受了自己是一部“预测机器”,那么你也就很容易接受建立在预测之上的“自我”是一种幻觉。

我们每个人都活在自己构建的故事里,比如你可以脱口而出讲述一个“自传”——我从哪来,曾在哪上学,有过哪些朋友,人生中哪些重要的时刻塑造了自己的性格。

可是有关自我的故事并非坚不可摧:

首先,我们每个人心中都并行着很多故事。在这些故事里,“我”承担的角色并不同。就像在不同的游戏间切换,一会上这个号,一会儿上那个号。

比如在家庭里我可能是一个儿子或父亲,在职场我可能是一个码农,在公共生活中我可能是一个制度改革的推动者。

其次,每个人都有丰富的经历,从这些经历中选取的素材不同,甚至解读的角度不同,讲述出的故事也不同。

比如和父母相处,大概率你可以找到他们不爱你的片段,也可以找到他们爱你的片段;比如被老板的训斥,可以解释为自己失败的征兆,也可以解释为成功路上的磨砺.

每个人的故事就像一个乐高,怎么拼起来是随你的。

之所以我们的故事具有如此多的可能性,本质上仍然是因为“世界具有不可约化的复杂性”,需要使用故事来进行简化。而究竟哪个故事是“对”的,哪个故事是“错”的,我们终其一生都没有机会知晓。

既然皆为虚妄,我们何必总是把心挂碍在一个雷同的、让人焦虑的、无法改变的“主叙事”上?

我们可以随时选择一个当下喜欢的故事,从中汲取前行的勇气,然后告别它。

所谓心无挂碍,无挂碍故,无有恐怖,远离颠倒梦想。

这不就是破除“我执”的法门一则么?

你在漫长时光中行走,那些过往就会自动凝结在一个个情绪内核之上,成为你的“人生点滴”。

而你在更广阔的空间里穿梭,“人生点滴”就会更多,直至如恒河之水,足够你随时拼出无数精美的故事。这些故事描绘了你来自何处,也昭示着你将要去往何方。

解决了“去往何方”这个开放世界的头等大事之后,面对眼前多如牛毛的具体困难时,你反而可以把**“大模型”像金箍棒一样**拿出来大闹天宫——在局限的信息内求解,才是它的正确用法(如第四章所述)。

只剩下最后一个小问题:

你知道“放松缰绳”会引向更好的数学收益,通过“无我”的修行你也有了“纵身一跃”的勇气,但你仍有坠落山崖的可能。

我们应该如何对待这种可能?

我的建议是:接受这种可能。

人永远无法切割与他人的关系。你和他人分工,从而获得生存的资源;你和他人共享语言,从而有了协作的工具。更重要的是,你和他人共享历史。

所有人的个体创新行动,都将以某种形式汇入历史。当你进入了某个未知区域,无论个体成败,都讲确凿无疑地降低这个区域对于整个人类的新奇性。

宇宙的时间箭头永远向前,而历史告诉我们曾经身在何处。人作为一个整体,可以离开曾经到过的地方,向无限的地方探索。

从这个意义上说,由每一个具体的人创造的历史比未来更加重要。

南极苦寒,但探险家斯科特和他的团队宁愿赌上生命也要站在那里。在他抵达南极点后回来的路上遇到暴风雪,团队成员奥茨因为冻伤行走缓慢,他不想拖累其他三人,只说了句“我出去一圈”,便独自走进风雪。

而最终,斯科特还是被困在帐篷的睡袋里迎接死亡来临。他在生命最后阶段不断书写日记,意识消散前留下的最后一句话是:For God's sake, look after our people.(看在上帝的份儿上,照顾好我的人民。)

当《复活》中托尔斯泰让玛丝洛娃最终拒绝贵族聂赫留朵夫,奔向革命者西蒙松和自己的新生时;当《美丽新世界》中赫胥黎喊出:“我不要舒适,我要神,我要诗,我要真实危险,我要自由,我要善良,我要罪孽”时,那就是人类的群星闪耀时。

在历史中,无数人选择了他们心中的故事,并且用最汹涌的情感去奔赴。

他们的选择,未必都将个人引向更好的生活,但他们的存在,对于普遍意义上的“人类”来说,是巨大的幸运。

在姜峯楠的小说《你一生的故事》中,主人公洞悉了自己余生的命运,这些命运充满离别和苦难,但她最终选择义无反顾。

我们作为个体,也许本质上终究是一个生存机器,被体内的基因驾驶着,在旅程中路过一场场离别,待所有的离别看尽,走入一个寂灭的终点。

但这场旅途并不荒凉,我们把路边的野花插在头顶,彼此顾盼,哈哈大笑。

然后,我们走入命运的洪流,像个英雄一样,义无反顾。

往期推荐:

👉********2022,我们在幽暗的谷底守护一朵花

👉********我们该不该怀念2021?

👉********当 AI 成为“逆子”:人类该抽丫俩逼兜,还是给它一个拥抱?

👉********隐私计算英雄传

👉********技术往事:从梅西举杯到世界热泪盈眶,那一秒钟我们经历了什么?

👉********世界千疮百孔,有一群黑客在缝缝补补

👉********火眼金睛博士:我用 AI 刺穿黑客的大脑

👉********我在阿里造“军火”

👉********把“中国制造”的云计算卖给外国人是一种怎样的体验?

👉****************给人工智能“大模型”当保姆,都要操哪些心?

👉********************25年奇幻漂流,一群人正把中国制造业的数据带回故乡

👉再也不是“中国版的某某某”,国产 IT 技术的自主之战

👉****************************他们在“耳机”里和生活决斗

👉********人工智能杀人回忆

上帝死了

我们还活着

再自我介绍一下吧。我叫史中,是一个倾心故事的科技记者。**我的日常是和各路大神聊天。**如果想和我做朋友,**可以搜索微信:**shizhongmax

哦对了,如果喜欢文章,请别吝惜你的**“在看”“分享”****。让有趣的灵魂有机会相遇,会是一件很美好的事情。**

Thx w****ith  in  Beijing

相关推荐
关注或联系我们
添加百川云公众号,移动管理云安全产品
咨询热线:
4000-327-707
百川公众号
百川公众号
百川云客服
百川云客服

Copyright ©2024 北京长亭科技有限公司
icon
京ICP备 2024055124号-2