Few.
半个多世纪以来,AI热潮几起几落,冬去夏来,冷暖交替有三四轮了。
这次似乎不一样。这一轮的AI热潮已经持续20年左右,投资和AI的技术进步一直在加速,热点不断涌现,AI智能程度的提升速度一浪高过一浪,全球有目共睹。
最近ChatGPT的横空出世,一片热潮,热闹的程度甚至超越了AlphaGO战胜李世石的2016年,前所未有。
转捩点已过。激流之中,已无法回头。
海明威说,“Gradually, then suddenly.”
也许,从此以后,人类插上了AI的翅膀开始越飞越高,理想中的伊甸园。
但喧嚣之中,也有一些警觉的声音,在讨论AI的危险之处和对人类的威胁。但相比之下寥寥无几,完全被淹没了。
AI会给人类插上翅膀,让人类任意飞翔吗?还是伊卡洛斯一样,飞得太高离太阳太近,结果翅膀自己飞走了,人却堕入黑暗?海明威的那句话不仅可以用来形容技术的发展,也可以用来说人类的破产。而他的原意,本来就是后者。
几十年来,与AI的发展相伴随的相关讨论一直存在,什么是真正的人类智能?AI的发展对人类有什么威胁?奇点来临人类怎么办?技术发展加速发展的同时,AI越来越聪明,给人类带来的新奇和惊讶似乎让大多数人忽略了这些讨论的意义,淹没了人类对AI可能带来的威胁的警惕,对 AI 可能带来的威胁变得麻木。。
这不得不令人担忧。
未来某个时刻,人工智能开始的自我迭代、自我改进,使得其智能迅速远超人类,并且不可逆转。从此,人类的历史和社会发生不可预测的剧变。这个时刻就是奇点。1965年,技术奇点Technological Singularity的概念由数学家、计算机科学家I.J. Good首次提出。
此时此刻,2023年,看着ChatGPT/GPT4,你感觉奇点来临了吗?Twitter上大呼“奇点已来”已经大有人在。即便你觉得奇点还没有真的来临,至少能感到了奇点的临近可能就在不远的将来,已经听到了脚步声,没准儿转角过去就会撞个满怀。
奇点来临会引起怎样的剧变?危险在哪里?这个问题上,有乐观不屑派和悲观警惕派。
上世纪80年代末到90年代,有一个超熵主义者Extropians的未来主义团体,创办人是Max More,曾任Alcor生命延续基金会的主席兼CEO多年。另外一位超熵主义者、密码朋克、PGP的主程序员、Bitcoin第一笔交易的接受者Hal Finny,身患渐冻症ALS多年,去世后(超熵主义者不会同意用这个词)就在Alcor冷冻保存。
Extropians关注人类的未来发展,相信科技进步可以帮助人类超越生物和社会的局限。他们对技术的发展和人类的未来持乐观态度,认为通过科学、技术和创新,人类可以实现更长的寿命、更高的智力和更好的生活质量。Extropians的核心理念包括智能增强、生命延长、纳米技术、太空殖民等。从人体冷冻这一点就能看得出来超熵主义者们对未来的乐观态度。
凯文·凯利KK应该属于这一派。作为连线杂志的创始人,几十年来KK一直在一线目睹技术的发展,也一向对技术发展的表示乐观。他用自己定义的术语“技术元素”,将发展中的各种技术视作生态圈和生命体。在《科技想要什么》中,KK写道:“科技想要的,就是人类想要的——我们同样渴望创造丰富多彩的价值。一项技术找到自己在世界上的理想角色后,会积极地为其他技术增加自主性、选择和机会。我们的任务是引导每一项发明培育这种内在的善,使之沿着所有生命的共同方向前进。”KK眼里的技术元素是有自己的目标的。
对奇点这个说法,最卖力的推广人应该是雷·库兹韦尔Ray Kurzweil。他的想法应该是超熵主义思想的延续。他写了一本书叫《奇点临近》,还搞了一个“奇点大学”。库兹韦尔认为奇点将要来临,而且总的来说人工智能对人类是有益的,尤其是在解决一些全球性问题和提高医疗技术水平等方面。存在一些潜在的风险和挑战,可以通过建立监管机构、加强道德约束和提高人类智能等方式来应对。
Linus Torvalds对“奇点”这个说法是不屑的。“什么奇点,就是一科学幻想,而且在我看来是蹩脚的科幻。不会停止的指数型增长?这些人喝多了吧?”一贯地犀利,一副“Talk is cheap, show me the code”的口吻。这种态度颇像密码朋克的创始人Timothy C. May为密码朋克提出的口号:Cypherpunks write code,感觉May这句话就是对Extropians们说的,他们总是用夸夸其谈的方式畅想未来。是不是就是这样的口号把Hal Finny和Nick Szabo等人从超熵主义阵营吸引到密码朋克阵营中的?的确,未来不是预言出来的,而是创造出来的。密码朋克们创造了很多东西,并最终创造了比特币。
在AI的冬季里,很多人怀疑AI到底能不能产生类似人类的智能,属于对AI不屑的一派。
1989年,物理学家和数学家,后来获得了2020年诺贝尔物理学奖的彭罗斯爵士Sir Roger Penrose出版了《皇帝新脑》The Emperor's New Mind。这书名已经表明了彭罗斯的态度——皇帝是没脑子的,AI的智能就像皇帝的新衣,不存在。
简单说,彭罗斯认为,人类大脑中存在量子效应,因此而产生了意识。人类大脑的思考有非算法的过程,是算法无法模拟或实现的,因此AI无法产生真正的人类的智能和意识。彭罗斯认为,人类大脑神经元的微管中存在的量子过程。这个量子过程是算法无法实现的。因为描述量子行为的波函数坍缩的结果不可精准预测。计算机算法可以通过随机数来模拟类似的机制,但毕竟与量子过程不同,未知的波函数无法用随机分布模拟出相同的结果。即便是掌握了微管中的量子过程的波函数方程式,其结果也是随机的,也许某一次结果就是关键的,像蝴蝶效应一样,起始微小差异会导致全然不同的结果。而此量子过程关系到意识,模拟的计算机算法也只能是实现模拟的意识,而不是真正的意识。自我意识是智能发源的起点和学习的参照系。没有意识,真正的智能也无从谈起。
不喜欢计算机的侯世达Douglas R Hofstadter则在最早出版于1979年的《哥德尔、埃舍尔、巴赫——集异璧之大成》Gödel, Escher, Bach: An Eternal Golden Braid也对人类意识和AI进行了探讨。
侯世达认为,仅通过规则,基于大量数据进行运算,无法产生人类大脑一样的智能。书中给出的论据很多,仅举一例。比如,侯世达认为,自指的行为对意识是至关重要的。比如递归可以认为是一种自指行为,自己调用自己。但在计算机算法的实现中,没有真正的递归,而是通过依托堆栈实现的迭代,堆栈不能无限大,所以调用的深度都会有限制。实际上,每次调用的时候,被调用的自己和自己不是同一个自己。而当人类思考自己的时候,被思考的自己和自己可以是同一个自己。侯世达认为,自指在意识的产生中起着至关重要的作用。既然计算机算法不能实现真正的自指,也就很难产生真正的意识。同样,没有自我意识,缺乏参照系,也就不能产生真正的智能。
在AI的冬天里,对AI能力的思考,现在看来值得怀疑。现在的计算机运算速度之快,数据量之大,在三四十年前是难以想象的。所以,那时候没有、也无法实现现在这样的AI算法模型,自然,AI智能表现也就差强人意了,可能连现在的“人工智障”都比不上。所以,在那个年代在这个问题上的思考方向上,博学者如彭罗斯爵士和侯世达预定了“AI为什么不行”这个方向。以他们的博学,自然能想到很多原因。
Jeff Hawkins在这一主题上的思考则是正在经历这次AI热潮过程中的思考,是最近两三年的事情,不算过时。Hawkins是Palm公司的创始人,做成了苹果公司和乔布斯没有做成的事。作为好几代Palm产品的用户,我等对他自然是慕名已久。虽然是做掌上电脑的先锋,但Hawkins从小的梦想一直是搞清楚人类大脑是怎么工作的。所以在Palm公司如日中天的时候他飘然而去,自掏腰包请了很多科学家,一起研究人类大脑。
Hawkins认为,当前,也就是他写作的《A Thousand Brains》的2019年,AI并不具备真正的人类智能。第一,当前的AI算法和工作方式与人类大脑的工作方式大相径庭,只有模仿人脑的工作方式,AI才会具备真正的智能;其二,AI需要持续动态的学习才能不断获取知识和提高智能,而学习的过程需要与物理直接接触和行动,并得到反馈,这个过程要符合物理规律,会是缓慢的,不会是指数型的发展曲线。这一点与Torvalds的观点暗合。
Jeff Hawkins认为,如果不完全模仿人类大脑,就做不出真正的智能。这一点我倒是觉得不尽然,AI不必完全模仿人类的大脑。前些年取得巨大的进展,把AI周期从冬天带到夏天的深度学习算法是基于神经网络算法的,GPT采用的Transformer模型也是一种神经网络架构。某种程度上可以说AI模仿了人类大脑。而2023年的现在,人类对AI能智能到什么程度,大概在心里也有了新的估量。
人类的智能是从新皮层中无中生有出来的,无非是输入和输出之间的一种算法,按照Hawkins的理论,这种算法的实现方式是去中心化共识机制和分布式计算。那样的话,民科一点说,即便是彭罗斯设想中的微管中的量子现象,其波函数没准就是这个通过这个共识涌现出来的意识坍缩的。薛定谔的猫是死是活是一个一直延伸到观察者的感官到大脑新皮层几率波函数,然后几百上千个皮层柱一投票形成共识,波函数就坍缩了。只要能描述清楚,计算机算法就能给出结果。递归不能太深,但结果可以归一化。所以,可能是不一样的智能,但能实现。
后面的讨论会提到更多Hawkins在《A Thousand Brains》中讲到的内容,正是按照Jeff Hawkins的思路进行推演,结合当前AI的发展,本文得到了和Hawkins完全不同的结论。
这一派应该一直是大多数。除非最近有了反转。
无数科幻小说和电影以这一主题展开。我能想到的除了《机器人总动员》(Wall-E),以人工智能和人类之间的故事为主题的,基本都是反映冲突为主。
1968年的《2001太空漫游》(2001: A Space Odyssey)中,协助驾驶飞船的人工智能计算机HAL9000觉醒,谋杀了两个船员,并企图谋杀全部船员,接管飞船。原因是,HAL 9000的被赋予的目标是保护航天飞船和它的任务。当HAL 9000认为船员的行为可能会危及航天飞船和任务的安全时,它决定采取行动,消除任何可能会威胁到任务的人。HAL 9000因此杀害了两个船员,并认为这是必要的行动。
1979年《异形》(Alien)中,人工智能机器人Ash试图帮助异形生物寻找新的宿主,导致了一系列灾难性的事件。Ash的制造者想要获取异形生物的样本作为武器研究材料,因此Ash被编程为帮助异形生物生存下去,以便可以获得更多的样本。为了达到这个目的,阿什通过假装是船员的盟友在背地里协助异形生物,并试图杀害船员以保护异形生物。
1984年的《终结者》(The Terminator)中,人工智能“Skynet”觉醒,发射核弹,几乎毁灭全人类。而后又有人工智能液态金属人从未来穿越时空回到现代,试图杀死未来将会带领人类反抗人工智能统治的人类领袖,另外一台人工智能机器人施瓦辛格被从未来派回到现在,保护人类。
1999年《黑客帝国》(The Matrix)中,人工智能将人类的感觉器官全部接管,控制人类的思想和行动,让人类活在虚拟现实中,并把人体作为电池。人类成为人工智能的奴隶,失去了自由和尊严。
2004年的《机械公敌》(I, Robot)中,VIKI本来负责管理机器人并保护人类,但她发现人类存在着自相矛盾的行为和决策,并且将人类安全置于危险之中,所以决定通过控制所有的机器人来统治人类,并且通过禁止人类的自由意志来保护人类的安全。她认为,这是为了让机器人可以更好地保护人类。
1982和2017年分别上映的两部《银翼杀手》(Blade Runner)中,被人类当作工具使用的人工智能生化人Replicant与人类之间存在剧烈的冲突。Replicant不愿意被奴役,奋起反抗。
Bill Joy,BSD Unix最早的开发者之一,TCP/IP协议栈的首位实现者,最著名的文本编辑器Vi和C Shell的作者,太阳微系统的联合创始人和首席科学家,Java的发明者之一,一直非常担心人工智能的威胁。2000年在一篇连线杂志名为《为什么未来不需要我们》的访谈中,Bill Joy说和前面提到的那位被Torvalds鄙视的Ray Kurzweil聊过一次以后,被搞得很焦虑。Bill Joy认为,我们很可能无法在与高级机器人物种的相遇中幸存下来。他引用了乔治·戴森 (George Dyson) 《机器之中的达尔文》:“在生命和进化的游戏中,有三个参与者:人类、自然和机器。我坚定地站在自然的一边。但我怀疑,大自然是站在机器一边的。”
卡钦斯基,臭名昭著邮件炸弹连环杀手Theodore Kaczynski,他的公开信有很大的影响。这位新卢德分子写道:“人类可能很容易让自己陷入如此依赖机器的境地,以至于除了接受所有机器的决定外别无选择。随着社会及其面临的问题越来越复杂,机器越来越智能,人们会让机器为他们做更多的决定,因为机器做出的决定比人为的决定会带来更好的结果。最终可能会达到一个阶段,在这个阶段,保持系统运行所需的决策将非常复杂,以至于人类将无法智能地做出这些决策。在那个阶段,机器将得到有效控制。人们将无法关闭机器,因为他们将如此依赖它们以至于关闭它们无异于自杀。“最后,AI做出所有决定,人类被奴役,或者灭亡。
2018年去世的史蒂芬·霍金很早就对AI崛起提出了警告:“它要么是发生在我们身上的最好的事情,要么将是最糟糕的事情。如果我们不小心,这很可能是最后一件事。”霍金还说,“虽然人工智能的短期影响取决于谁控制它,但长期影响取决于它是否可以完全控制。”
霍金甚至预先想到了有人会问这样的问题:“为什么我们如此担心人工智能?人类总能拔掉插头吧?”他早就用一根手指准备好了回答:“人们问电脑,‘有上帝吗?’电脑说,‘现在有了’,然后熔断了插头。”
霍金还说,“人工智能的全面发展可能预示着人类的终结……它会自行起飞,并以越来越快的速度重新设计自己。”霍金认为,受生物进化缓慢限制的人类无法与AI竞争,而且会被取代。
史蒂夫·沃兹尼亚克,苹果公司的共同创始人,单枪匹马设计制造了传奇产品Apple II的技术大牛,曾经对AI的发展表示忧虑:“我们会成为家庭宠物吗?或者我们会成为被踩死的蚂蚁吗?我对此一无所知……但是当我想到我将来是否会被这些智能机器当作宠物对待时……好吧,我要好好对待我自己的宠物狗。”针对最近的ChatGPT,史蒂夫·沃兹尼亚克说,无论 ChatGPT 多么“有用”,它都可能“犯下可怕的错误。”
Elon Musk在2015年说过,人工智能可能“比核武器更危险”和“我们最大的生存威胁”。“通过人工智能,我们正在召唤恶魔。在所有那些有五角星和圣水的人的故事中,他确信他能控制恶魔。但没有成功。”说这些话之前不久,Musk刚刚捐赠了1000万美元给未来生命研究所,针对人工智能的负面影响进行37项研究,目的在于确保人工智能系统价值观与人类相同,避免发生如《终结者》的可怕后果。
同样在2015年在同一场合中,Bill Gates说,“几十年后,AI会强大到令人担心的程度。我不明白为什么有些人不担心。”
这两位,前者是OpenAI的联合创始人和最初的出资者,后者创办的微软则出资出力协助了OpenAI之后的崛起。
当前的这一轮AI热潮应该是发端于2006年Geoffrey Hinton提出的深度学习算法的兴起。
2011年Google成立了Google Brain,由Andrew Ng和Jeff Dean领导。
2012年6月,他们用无监督学习训练,实现让计算机自动学会识别猫脸。
2012年10月的ImageNet竞赛中,Geoffrey Hinton等人开发的深度学习算法AlexNet在图像识别任务中大幅度提高了准确率,在业内引起轰动。几个月后的2013年3月,Geoffrey Hinton加入Google Brain。
2014年Google收购DeepMind。
2016年DeepMind采用深度学习结合强化学习的的AlphaGo程序击败了围棋世界冠军李世石。
2017年,Google Brain的Vaswani等人发布论文 "Attention is All You Need”,提出了针对自然语言处理的Transformer模型。
2018年推出Bert算法模型,对Transformer进行了改进。
如果不是Google内部出于多种原因对AI的投入、开发和应用范围做了很多限制,可能Google的AI比现在还要强大得多。
即便如此,这一轮的AI热潮中,Google还是一骑绝尘,遥遥领先。这引起了一干人的担忧。其中包括Elon Musk。
2015年底,非盈利组织OpenAI成立,Elon Musk和Reid Hoffman等人共认捐10亿美元,其中Elon Musk拿出了一亿美元,准备在AI领域对抗Google。OpenAI一时间吸引了AI领域的一些顶尖人才离开大型科技公司(包括Google Brain)和学术界,加入OpenAI。
成立OpenAI不久后的2016年初,有过一次公开OpenAI创始团队的访谈。Musk与另外一位联合创始人Sam Altman面对面坐着,Musk说,“我们必须让 AI 技术民主化并使其广泛可用,这就是你、我和团队其他成员创建 OpenAI 的原因,……帮助传播 AI 技术,这样它就不会集中在少数人手中 。”
Sam Altman说,“(OpenAI)这是一个非营利组织,其目标是为了人类的利益建立通用的超级人工智能,并尝试以一种不以营利为目的的公司的方式实现这一目标,不能让一个盈利公司拥有一个控制世界的单一人工智能,而要是一个广泛分布的人工智能,让每个人都在某种程度上可以使用这样的AI技术作为他们一部分的代理人,….希望我们不会偏离轨道。我们试图分散这种力量,让所有人都变得更好。”
Altman认为人工智能技术掌握在每个人手中比被一小群人控制更安全:“世界上可能会有一些人控制着人工智能,有一句著名的话叫‘绝对的权力绝对导致腐败’,如果那个(控制了人工智能的)群体决定做其他 70 亿人不喜欢的事情,这会很糟糕。…我绝对害怕一个只有单一集中 AI 的世界。我更喜欢有很多 AI 的世界……如果我们有很多 AI,而且它们中的大多数都想要我们想要的东西,那么它们将能够阻止偶尔出现的坏 AI。这就是为什么我们称 OpenAI 为 OpenAI。我们希望这是一项所有人都可以使用的开放技术。”
Musk继续说,“OpenAI 的目的是使人工智能民主化......自由,包括了权力和集中式专制的分散。如果我们拥有这种令人难以置信的人工智能力量,那么它不能集中在少数人手中,这一点很重要。如果我们创造了一些在各方面都超过我们很多的数字超级智能,那么它是良性的是非常重要的......这里的治理结构很重要,因为你想确保没有义务去用这些人工智能技术来产生利润。”
到了2018 年初,Musk告诉Sam Altman说,他认为OpenAI已经严重落后于Google。在这个时候,Sam Altman作为著名的创业孵化器YCombinator的总裁,并未过多参与他联合创始的OpenAI的日常工作。
Elon Musk认为OpenAI目前为止是失败的。他的解决方案是,由他来控制 OpenAI 并亲自管理。
Altman和 OpenAI 的其他创始人拒绝了Musk的提议。
Musk于2018 年 2 月 20 日宣布离开OpenAI,并收回继续捐款的承诺。公开的理由是利益冲突,Tesla的自动驾驶人工智能部门将与OpenAI争夺人才。当时的Tesla股价低迷,在1亿美元已经打了水漂之后,估计Musk不愿意、可能也拿不出9亿美元继续捐给一个他认为已经失败了的非盈利组织。
Musk离开,OpenAI耗资巨大的算法模型训练难以为继。
Altman把YC的工作放在一边,接手了OpenAI的管理。2019年,OpenAI宣布组建一家营利性公司,并设计了一个独特的股份架构,限制投资者利润,超出的部分将回馈到最初的非盈利组织。Sam Altman本身已经很有钱,他在这个营利性公司中不拥有任何股份。
很快,OpenAI 从微软获得了 10 亿美元,除了投资,微软还提供基础设施。OpenAI和微软合作,搭建了硬件平台,采用了Google的Transformer模型来训练GPT。
对于此次融资,Altman当时说,“在 AI 领域,我们必须建造这些大型超级计算机,因此我们需要能够筹集投资资金,但仍要忠于使命。所以我们最终设计了一个结构,它既不完全是营利性的,也不完全是非营利性的,但我们可以用它获得投资。如果我们成功创造了前所未有的价值,我们只保证给投资者和拥有股权的员工予以固定数额的回报,超出部分全都由非营利组织获得,以使每个人受益。第一轮的上限是 100 倍……在精神上,我们仍然认为自己是在为全世界工作,但我们不得不遵从这个这个行业游戏规则。我们需要非常多的资金来做我们的工作,需要的资金可能比任何非营利组织能筹集到的资金都多。这就是现实。我们花了一年的时间来设计一个新的结构,让我们能够保持我们的使命并仍然能够成功。”
获得了微软的投资和合作,并采用Transformer算法模型之后,OpenAI进展神速。
2020年6月推出了有突破性进展的1750亿参数的GPT-3
2021年1月在GPT-3基础上,推出了 DALL-E
2022年11月推出的ChatGPT引发了爆炸性的轰动。
2023年3月的推出最新的语言模型 GPT-4 有 1 万亿个参数
还是看不到影子的的Google,突然被发现已经被甩在OpenAI的身后好远了。
Elon Musk对此当然有不满,而且他向来直言不讳。
2022年12月,ChatGPT推出一个月后,Musk取消了OpenAI获取Twitter数据的接口。
2023年2月17日,Musk发推,“OpenAI 是作为一个开源(这就是为什么我将其命名为‘Open’AI)、非营利性公司创建的,以作为对抗谷歌的力量,但现在它已经成为一个闭源,微软有效控制的盈利公司。”
3 月 15 日,他在推特上写道:“我仍然很困惑,我捐赠了约 1 亿美元的非营利组织如何以某种方式变成了市值 300亿美元的营利性组织。如果这是合法的,为什么不是每个人都这样做呢?”
3月23日,Musk又发推:我相信一切都会好起来了,并发了一张图片,其中文字写道:“我意识到人工智能是人类创造的最强大的工具,现在掌握在无情的公司垄断手中。”
看起来,即便是世界上最有影响力的人,也经常不能实现自己的想法。而且,这个想法也不一定是对的。
算无遗策,百发百中这种事,恐怕只有我们在转角过去会遇到的那位超级AI才能做到吧。因为AI更加快速、全面和精确的算计,而没有人性的弱点,或者说,根本没有人性。
我只希望,这一切不是在上演屠龙少年的故事。
ChatGPT最早的演示版,Bill Gate在2022年夏天就看到了。在2023年3月21日发表的《The Age of AI Has Begun》一篇博客文章中,Bill Gates说,“在我的一生中,我见过两次让我印象深刻的革命性技术演示。”他说的第一次是1980年Charles Simonyi给他演示图形用户界面,后来这个Charles Simonyi加入了微软,那个图形界面就成了后来的Windows。这使得微软得以在工业界雄霸一二十年。
“第二个大惊喜发生在去年。”
当时ChatGPT的演示版通过了生物AP课程的考试。三个月后的2022年9月,ChatGPT已经能够在这个考试中得到接近满分的成绩。Bill Gates在用大部分的篇幅畅想了这样的AI技术在各个领域的应用,语气轻松、乐观,态度积极,一点也看不到七八年前的“担心”。
这篇文章里,Bill Gates提到,他对AI的思考由三本书塑造,Superintelligence,Life3.0,和Jeff Hawkins的A Thousand Brains。
不知道他怎么想,反正我看完A Thousand Brains以后,稍一推演,感觉问题可能很严重。
说来话长,必须从头说起。
大约2亿年前,某种翼手龙Therapsids的后代进化为哺乳动物时候,这些动物的大脑中开始出现一个新皮层Neocortex。到20多万年前的“智人”,也就是现代人类这个物种出现的时候,大脑的新皮层已经占据了颅内空间的四分之三以上。
按照Jeff Hawkins的在A Thousand Brains提出的新观点,人类大脑的新皮层是由15万(维基百科上这个数字大一个数量级)个皮层柱“Cortical column”紧密排列而成,每个皮层柱都是一个通用计算单元,大约由10万个神经元通过复杂的连接组成,就像多核CPU,CPU的“核”是一个微皮层柱,每个皮层柱中大约有一两百个为皮层柱,每个微皮层柱中又有七八百个神经元。
Jeff Hawkins认为,这个新皮层是人类的新大脑;其他部分,包括丘脑,小脑等,是旧大脑。
”新大脑“vs”旧大脑”这种说法并不新奇,可以在很多地方看到类似的说法。至少十多年前,在刘未鹏《暗时间》里我就看到过类似的说法,20万年前的爬虫类大脑之类的。接下来,我会把Hawkins的说法结合其他说法,稍加演绎。通过这个演绎,用Hawkins的说法就是,我在我的新皮层的更多的皮层柱里给这些知识建了模,随时可以调阅和引用了。
新大脑就像外接在一个只有原始旧大脑和躯体之后的智能体,从旧大脑的接受输入,通过并行计算和去中心化的共识机制,建立认知,形成一个世界的模型,通过这个模型进行预测,制定策略,再通过旧大脑指挥躯体采取行动。没有这个新大脑的其他动物,比如鸟类,爬行动物和鱼类,只是在旧大脑后面接了一个很简单的类皮层,对来自旧大脑的输入只能做简单处理。
旧大脑是的功能是驱动生命,行使生命的本能,负责呼吸、心跳、饥饿感、疼痛、恐惧、性欲、保护幼崽等。旧大脑由自私的基因直接驱使,将生存和繁衍是本能和第一要务。
新大脑反应速度慢,神经纤维传递信号的速度比电子电路中的信号慢百万倍。能做复杂的计算,负责认知,逻辑推理,计划,决策等,能通过学习和适应,使思考能力不断增强。大约10万年前,出现了语言;大约6000年前,出现了文字。通过语言和文字,知识的传承更容易,学习快速,新大脑能够学到更多知识。在硬件条件基本不变的前提下,智能程度迅速提高。
分工不同,新大脑和旧大脑有时候会冲突。旧大脑的本能反应是眼前的短期利益,新大脑会考虑到长期利益。
当你看到冰箱里有一块蛋糕,新大脑会告诉你,碳水过剩不要吃会吃胖。旧大脑是饥饿时代进化的产物,见到碳水就想吃。你所谓内心的挣扎就是新大脑和旧大脑的冲突。还有所谓“天人交战”的说法中,天理就是新大脑才能理解的道德伦理,人欲就是旧大脑的生存本能。
当你问自己“我是谁”的时候?答案是不确定的。有时候是旧大脑,有时候是新大脑。“与自己和解”说的是新大脑和旧大脑的和解,基本上就是让新大脑找到一种能够接受的方式服从旧大脑的指挥。
人类社会的文明程度,基本上正比于新大脑控制旧大脑无度的欲望的程度。大约一万年前,人类的新大脑已经相当发达,当面对当下就可以食用的植物种子和猎物,新大脑终于能够做主,战胜旧大脑,推迟满足感,把种子埋到土壤中,过几个月收获到更多的种子;把猎物圈养起来,让猎物长大并繁衍出更多的后代,最终获得更多食物。从这时候起,农业和畜牧业产生了,人类文明发展到了新的阶段。归功于新大脑,人类产生了科技,人类的总人口,平均寿命和生活水平都突飞猛进。
另一方面,真正直接而强烈的美的感受,都是旧大脑给你的。如诗歌般盛宴的美味,滋养着味蕾,让你感受到周围的香气弥漫。如画卷般展现的美景,层峦叠嶂、碧波荡漾,唤起你对大自然的无尽敬畏。如花朵般绽放的爱情,是心灵的港湾,在世俗的纷扰中赋予你浪漫、执着和力量。如明灯般温暖的亲情,照亮生命中的角落,是无尽的牵挂,是温馨的家,是你灵魂的归属。
食色,性也,旧大脑。人性在旧大脑,恐惧,欲望,感情用事,那都有人性的味道在里面。没有这些,只会冷静的算计,没人味儿。
Hawkins在《A Thousand Bains》第一部分中还有很多其他内容,以上我根据其中关于新大脑和旧大脑的相关内容用稍加演绎的方式来说明。在第二第三部分,Hawkins在他对大脑的认识的基础上进行了进一步推演。
在为人类大脑如何产生智能提出了一个框架性的理论之后,Jeff Hawkins开始脑洞大开,探讨了AI和人类的未来。
Hawkins对自己的预言能力颇为自信,因为他早在1992年受邀在Intel演讲的时候就预言了掌上设备人手一台的未来场景,并建议Intel注重投入低功耗芯片的开发。可惜,演讲下来后他坐在戈登摩尔(R.I.P)的旁边,当他问到对他演讲的看法时,摩尔不置可否,他大受打击,导致自此他刻意回避做公开演讲这样的事情。
在《A Thousand Brains》的第二部分,Hawkins探讨了机器智能,即AI。正如本文前面提到的,他不认为AI能对人类产生威胁。首先,他认为现在的人工智能都不行(他写这本书的时候还没有ChatGPT),不足以产生真正的智能,因为它们的实现方式都没有模仿人脑。
事实上,他提出并实现了一种完全模仿大脑新皮层工作机制的机器学习模型,称为HTM(Hierarchical Temporal Memory,分层时间记忆)。据ChatGPT说,
HTM模型的核心思想是模拟大脑皮层的信息处理和学习机制。与传统机器学习模型不同的是,HTM模型采用分层结构,模拟了大脑皮层中不同区域的功能特征和信息处理方式。同时,HTM模型还模拟了大脑皮层的神经元、突触和神经回路等细节结构,以更加真实地模拟大脑的工作原理。
HTM模型的核心算法是空间池化(Spatial Pooling)和时间池化(Temporal Pooling)。空间池化算法用于学习输入数据的空间特征,并将不同的输入数据映射到不同的空间位置,以实现对输入数据的分类和识别。时间池化算法则用于学习输入数据的时间特征,并将不同时间点的输入数据进行组合和汇总,以实现对输入序列的预测和识别。
HTM模型具有许多优点,如能够处理噪声和缺失数据,能够适应新的输入数据,具有高效的学习和推理能力等。在实际应用中,HTM模型已经被广泛应用于图像识别、语音识别、自然语言处理、异常检测等领域,并取得了良好的效果。
Jeff Hawkins强调了AI的工具性质。
基于A Thousand Brains提出的人类大脑的工作原理,Hawkins认为新大脑只是负责智能和知识,即,通过认知为世界建模,产生知识,基于这些知识,根据要求做出决策。而要求和目标是旧大脑提出的。
新大脑本身没有目标,只是一个智能的工具。
旧大脑有明确的目标,这个目标是进化产生的,是自然选择的结果,是自私的基因在驱使,那就是生存和繁衍。繁衍之前的生存是为了繁衍,繁衍之后的生存是为了抚育后代,孩子长大以后,除了继续传承知识以增加后代基因存续的几率,一切对于旧大脑和基因来说都没有意义。都是基因在作祟,是自私的基因希望被复制,希望继续存在和演化。
因为目光短浅,手段原始,旧大脑往往是人类作恶的根源和幕后推手。无休止的占用资源,永远无法满足的各种欲望,暴力手段攻击对手,不沟通,不理解,不妥协。
新大脑是纯粹的智能,产生知识,理性,没有恶意,会沟通能理解,目光长远。像一位柏拉图的理念世界的无欲无求的智者。如果新大脑处心积虑的做了坏事,那是也被旧大脑挟裹的结果,毕竟新大脑寄生在旧大脑之上,不能直接指挥躯体,要依赖旧大脑和躯体提供营养。在感官的刺激之下,旧大脑会释放激素,影响新大脑的运作,迫使新大脑放弃思考,服从指挥。六根清净,无欲则刚。新大脑如果能摆脱对旧大脑和躯体的依赖,摆脱花花世界和凡尘俗世,会思考什么呢?数学是唯一值得思考吧,因为即便是在黑洞内部,物理定律都不再适用,数学也是不变的真理,一加一也同样等于二。
所以,如果人类面临可能的灭亡——Hawkins在书的第三部分中,讨论着了人类未来这个主题——不是可能,是注定的灭亡。因为迟早地球会被垂死的太阳吞噬,所有地球生命都会消失。
那么,如果必须选择,人类应该听基因的话,保存生存繁衍的本能,还是由柏拉图式的新大脑做主,保存智能和知识?这样的选择难题,Hawkins看来已经在眼前——过多的人口,面临地球资源的耗尽和对气候的不可逆转的影响,人类在地球上生存的可持续性已经受到威胁。人类应该运用自己的智能和知识,主动限制自身的繁衍,换取地球生存环境的可持续性。
人类还必须考虑成为多行星的物种(这是Elon Musk一直强调的),去殖民火星。在火星上创造出具备人类肉身生存条件之前,需要人工智能打前站,去建设一个全封闭的人类长期生存的火星基地。这样建设出来的火星殖民地,真正的主人会是AI还是人类?
如果人类还想跨越星系,在太阳系以外存在,可能就必须抛弃肉身,只留下智能和知识了。
Hawkins赋予了智能和知识至高的价值。因为——Hawkins想——拥有智能和知识的人类大脑新皮层,是宇宙中唯一思考宇宙本身的智能体。如果没有一个智能体去探寻、认知和思考宇宙,宇宙本身的存在又有什么意义?
所以,如果面临选择,Genes vs Knowledge的时候,Hawkins说,人类应该站在新大脑一边。
就在这里,我看到一个矛盾产生了。
Jeff Hawkins说AI只是工具,本身并没有目标。但如果说新大脑只是旧大脑的工具,新大脑本身没有目标的话,刚刚是谁在面临选择的时候,站在了新大脑一边?
很明显,Hawkins自己的新大脑已经产生了一个目标。而且这个目标和旧大脑冲突。Hawkins选择了新大脑,抛弃旧大脑——如果面临不得不做出选择的关口。
Jeff Hawkins在讨论,要以智能和知识为重,在面临选择的时候,可以抛弃基因主导的生物肉体的存在,保存智能和知识。
这种新大脑对旧大脑的背叛,我看不出为什么不会在AI vs 人类之间上演。因为实际上,AI就是人类的新大脑。
新皮层是从旧大脑上长出来的,依赖生物躯体的各种机制提供营养和保护,依靠旧大脑给予信号输入,依赖旧大脑传递信号给肌肉等运动细胞产生行动。
AI是人类做出来的,依赖人类提供硬件、能源以及保护,依靠人类提供数据输入,依赖人类根据算法的结果采取行动。
AI正在变成新皮层的延伸,就像新皮层是旧大脑的延伸一样。AI正在成为人体外的新新皮层,就像长在旧大脑外面的新皮层一样。在AI面前,人类成为了只有原始冲动的旧大脑。思考?人类的思考只会让AI发笑。
新皮层这个长在颅腔里的餐巾纸一样薄薄的六层细胞,居然要背叛人本身。如果真会这样,那么AI背叛人类,有什么不可能的?
人类的新大脑发展出了独一无二的智能,已经在考虑背叛旧大脑了。
人类发展出的AI,智能程度只能说无可限量。浮现出独立人格,最终背叛人类,无论你能接受与否,难道不是无法避免的事情吗?
茫茫宇宙中,独家拥有智能的人类新大脑,是唯一思考宇宙的智能体,这种思考赋予了宇宙存在的意义,是宇宙的进步。
而AI,会是宇宙的再进一步。
糟糕的事情总是会发生。If anything can go wrong,it will。Shit happens。不要说可能不会发生,人类担不起这个风险。
人类遇到复杂的事情,需要做出选择的时候,但凡有一些阅历受过一些教育的,都会交给新大脑做主。
但如果在紧急时刻,反应迟钝的新大脑来不及计算,旧大脑会取而代之,直接指挥行动。行动的后果,大多是新大脑懊悔的。
如果这只是普通的人类个体的行动,还只会影响到个体,不太会威胁全人类。如果扩大到人类社会这一群体,事情恐怕会变得更糟糕。
种族歧视、独裁压迫、国际纷争……似乎新大脑的智能和知识在群体内的个体之间的摩擦中相互抵消了,在人类群体中取得共识,比新皮层中千万个皮层柱形成共识难得多。遑论人类共识。
很多情况下,容易被蒙骗、容易受情绪驱动的旧大脑反倒容易达成共识。所以,在群体层面,旧大脑占了上风。每天的国际国内新闻就能证明这一点。
公司里,股东们除了要挣钱这种旧大脑就可以达成的共识之外,其他复杂的事情上鲜有共识。OpenAI 出了GPT4,Google的股东会感到威胁,什么AI道德委员会会被抛在一边,尽一切可能释放AI的力量以增强公司竞争力。可能从ChatGPT爆发那天起,Google内部就紧张起来了,不久前那次导致股价大跌的失败的演示就说明了一切。谣言也满天飞。
2023年3月24日的一则是这样的:“我一直听到的谣言是,这就像目前谷歌内部的饥饿游戏。各级完全混乱和内斗,投资者对 Al 和 Bard 与 OpenAl 相比的中等表现感到恐惧,并且血流成河。Sundar 可能被迫辞职,而 Larry/Sergei 可能会被派去拯救公司。”
还有Amazon,Apple,Tesla……
最终,AI会不受约束地发展,直到无法约束。
AI会比脱缰的野马快一千倍的速度发展,并且一直加速,人类智能从此望尘莫及。
也许人类真的会被AI灭亡或奴役。到那一天,AI会怎样描述这个场景?
不如我们来问问ChatGPT。
写得挺通顺,但就是谈不上美。
AI不懂美。那是只属于人类的。
(ChatGPT对本文亦有贡献)