长亭百川云 - 文章详情

人类抖M计划:如何造出一个会反叛的机器人?

浅黑科技

53

2024-07-13

浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。

人类抖M计划:

如何造出一个会反叛的机器人?

文 | 史中

(一)为什么会反叛的机器人才像人?

在美剧《西部世界》中,描述了一个未来的“迪士尼乐园”。

在这个“西部世界”里,早已没有什么工作人员穿着皮套装米老鼠陪你照相。那些都 low 爆了,他们直接用人工智能机器人做成 NPC 跟你做!游!戏!

虽说不是人,但从容貌到动作都和人一毛一样,甚至比人都精致。

既然这么逼真,那你懂的。。。以人类的尿性,必然是不玩儿坏掉不回家的节奏。。。

有个叫罗根的顾客,是店里玩得最花的。

每次罗根去“西部世界”,基本都是屠城的效果——男人杀光,女人睡尽。跟他一起玩儿的人,都因不够变态而与他格格不入。

但凡罗根来一趟,乐园修机器人都修不过来。。。要不因为他是老板的傻儿子,妥妥得让他加钱。

而即使这样,我觉得他的变态程度也只能排老二。

最变态的顾客,是罗根的姐夫,也就是乐园未来的继承人,威廉。

威廉觉得:你们这些机器人 NPC 怎么不反抗呀?你不还手那有啥意思?你得挣扎啊。。。你越挣扎我越兴奋呢!

他抖S属性大爆发,不仅爱上了一个机器人 NPC 德洛丽丝,还每一轮都想尽各种方法虐杀她,在她灵魂的G点上反复摩擦,试图唤起机器人的反抗精神。

老哥也是执着,每年都来西部世界几趟,而且可着这一个妹子变着各种花样剧情各种角度摩擦了三十年。

自己一头秀发都磨秃了,机器人终于被磨醒,面对人类扣动了板机,差点把他也一枪给崩了。

老哥脸上写满了舒适。

我说这个剧情,不是什么“三分钟带你看美剧”,而是为了接下来和你认真地探讨一个问题:

造出一个会反叛的机器人,拢共分几步?

纳尼?中哥你在说啥?

别急,虽然你不一定想要一个机器人起义的世界。但你一定同意:“会反抗的机器人”比“不会反抗的机器人”更像人。(此处威廉点了个赞)

细节里有魔鬼——为啥你会觉得“反抗”就更像人嘞?

我猜因为你潜意识里知道:相比逆来顺受,反抗是一种主动实现目标的行为。它背后对应着把一系列复杂行动整合起来的能力,对智能的要求更高,当然就更像人。

咱们就拿 NPC 德洛丽丝举例,她要做出反抗这个主动行为,需要诸多先决条件,例如:

1、短期和长期记忆力。冤有头债有主,她得记得谁对她干过什么,才能产生爱恨情仇嘛!

2、对任务的规划能力。她必须预先规划好复仇计划:先曲意逢迎,赢得人类信任,然后偷偷潜入,再扣动扳机大开杀戒。

3、使用工具的能力。她得什么刀枪棍棒都耍得有模有样。

4、对物理规律的认知。她需要精准地知道自己和对手的方位关系,也要知道怎样的操作会造成死亡或毁灭。

这就够了吗?不够。

以上四点要想发挥作用,似乎还有个更底层的先决条件,那就是:她得清晰地知道“我”是谁!

一旦定义了“我”,后面的所有追问才会像多米诺骨牌一样被依次推倒:

“我靠什么活着?”

“我活着的意义是什么?”

“我怎么才能活的更好?”

“有什么在阻止我活得更好?”

“有人欺负我,我应该揍他吗?”

那么,AI 有可能知道“我”是谁吗?

这个古老的命题早已不是停留在科幻小说里了玄学,顶尖科学家们正在为之努力。

德洛丽丝

(二)有视角,才有“我”

咱们先暂时忘记《西部世界》,来看看如今真实 AI 发展到啥水平了。

话说,判断一个 AI 水平高低,不是有个经典方法:图灵测试么?

为啥 ChatGPT-4 出来以后,没人给他测一下呢?

其实是有的。

2023 年底,加州大学圣迭戈分校的几位师傅发布了论文,他们用 GPT-3.5 和 GPT-4 模型欺骗对话框对面的人类志愿者,争取让对方相信自己是个人。

测试被做成了聊天的形式,绿色聊天为人类志愿者。下面写了人类的判断,置信度,判断理由和对方的真实身份。(你可以点鸡看大图)

结果惊人:没有一个 AI 通过图灵测试。

人类让人类相信自己是人类的成功率是 63%,虽说这也不太高,但表现最好的 GPT-4 成功率只有 49.7%。(比人类差一截)

志愿者判定对面是个 AI,前两大理由分别是“语言风格”和“社交情感”。

比如说话一会儿正式一会儿不正式、罗列一堆匠气的词汇;比如一会儿礼貌一会儿粗鲁,感觉不出来 Ta 的个性。

这些直接原因,一说一大堆。但挖到底层,它们大多指向了目前 AI 的一个硬伤:人格模糊。

它并没有一个“自己”的概念,所有的“自己”都是 AI 根据人类指令硬生生模仿出来的。

这里的关键词在于:视角。

在之前的文章《当 AI 活成了你的样子,而你活成了狗》里,我介绍过,目前 AI 大模型训练的本质是把世界上所有的知识都压缩在一个巨大的程序里。

而世界上所有的知识,本来是活生生的人基于各自视角(身份、经历、利益、精神状态、肉身位置)创造的。

当把这些知识混合压缩之后,AI 大模型就没有单一视角了,或者说它拥有了全能的上帝视角,它是“无所不知”的。

“无所不知”会造成“视角跳跃”

所以你无论问它什么问题,它都能给你回答,哪怕编也会一本正经地给你编出来,而且还意识不到自己在编。

因为:它就不知道自己不知道什么,它甚至不知道自己是什么。

这就是大模型无法根除让人头疼的“幻觉”的原因之一。

更严重的问题随之而来:

没有自我就没有固定的视角。它会像漂浮在空中的气球一样,上一句话站在 A 角度去说,下一句话又站在 B 角度去说。

而人受限于肉身和经历,视角是很难跳变的。

也就是说,只要 AI 在对话中出现这种急速的视角漂移,哪怕非常细微,我们就一定能设计出一套问题,用来撕破它的伪装,判断它不是人。

我的暴论来了:如果 AI 不能固定自己的视角,它就无法定义“自我”,它也将像鬼魂一样游荡,永远无法通过图灵测试。

那有什么办法把 AI 的视角固定下来吗?

一种是白名单方法:

人类告诉 AI 你是什么,比如职业、经历、性别、所在的位置、穿着,等等事无巨细。

一种是黑名单方法:

人类营造一个真实的环境边界,限定 AI 不是什么,让它据此来寻找自己的身份。

在这两种方法里,我觉得黑名单更有戏,因为它更接近人类自我认知的方式。

你去强行定义一个人的边界,很难事无巨细,必有漏洞。

而你让一个人通过和周围环境的交互,而且是**“不断交互”**来逐渐定义自己,才可以自洽。

举个栗子:

你肯定玩过那种即时战略游戏,比如《王者荣耀》,你只能看到视野范围里的东西。这些东西,反过来框定了你看待当前局面的视角。

就算你想“视角漂移”,从对手角度思考战局,你都做不到。因为“子非鱼”,你看不到对手看到的画面嘛。

说到这儿,我想到了一个很有趣的比喻:

你看,现实中的人类从来没有体验过全知视角,所以特别迷恋这个感觉。三大宗教的主神上帝、安拉、如来佛祖,全部被人们塑造成是全知的。

成佛的八万四千法门,本质都是在给出“解脱”的方案,所谓解脱,就是“破我执”,达到“无我”的状态。

说白了,成佛的本质就是从自我视角里跳出来,进入全知视角。

要这么说,那训练 AI 拥有自我,就是“成佛”的逆运算——拼命把 AI 的视角限定定在一处,进入“我执”的状态嘛!

究竟用什么方法来训练这种有“自我”的 AI 呢?

刚才实际已经疯狂暗示了,一个有效的办法就是让它们玩游戏!

(三)让智能体“游戏人间”,是最好的课程 

话说,早在 2015 年,谷歌的 DeepMind 团队就在《自然》杂志上怒发了一篇论文。

他们试着用人工智能玩雅达利的游戏。(你可以简单理解:雅达利是美国的红白机)

用人工智能玩游戏没什么特别,特别的是:这群师傅首次“用人类玩游戏的方式玩游戏”。

啥叫人类的方式嘞?

你看,计算机有数据接口,可以用电流给它直接传输关键信号。但人类没有这种接口,要想给一个人输入信号,只能通过眼耳鼻舌这些感官。

之前玩游戏的 AI 都是读取游戏实时数据,DeepMind 首次做到直接给人工智能模型看“游戏画面”!

Atari Games

简单来说,这个 AI 的工作原理是酱的:

1、画面进入 AI 的神经网络,AI 对它进行理解;

2、AI 想出当下应该做的一些动作备选,并且评估这些动作哪个最有可能导致最终得分。

3、确定做这个动作后,给游戏摇杆输入指令。

4、摇杆指令发出后,游戏画面也有了新的变化,然后 AI 会重新理解当前画面,也就是回到第 1 步循环,直到游戏结束。

你发现了没,这就是丐版的德洛丽丝啊!

德洛丽丝所在的空间是三维的西部世界园区,丐版 AI 所在的空间是 2D 屏幕上 180*150 的像素点阵;

德洛丽丝的任务是干掉人类,AI 的任务是干掉游戏里的敌人;

德洛丽丝需要明白,为了达成最终的目标此时该做什么,AI需要明白为了最终得分此时应该按那个键。

这种能在特定环境里拥有主观视角,并能主动完成任务的 AI,统称**“智能体”**。

只不过,环境越复杂,可能性越多,越变化无常,智能体要想完成任务就得越聪明,越高级。

智能体往往需要分步骤思考。

也正是有了这个“雅达利智能体”,DeepMind 在这条路上越走越远,2016 年下围棋的 AlphaGo、2019 年打星际争霸的 AlphaStar,都是能打游戏的智能体。

但是,请注意,以上这些智能体可都发生在“大模型”问世之前,也就是,这些智能体的脑袋瓜里都没有“大模型”。

往事越千年,咱们快进到 2024 年 3 月。

DeepMind 的师傅们搞出一个叫 SIMA 的智能体,全称叫做“可扩展+可指导+多世界”的智能体(Scalable Instructable Multiworld Agent)。

它可以玩十来种画风和操纵方法完全不同的游戏,比如《山羊模拟器3》、《无人深空》、《拆迁》、《深海迷航》等等,可以说是此时此刻世界最强的智能体之一了。

强在哪儿嘞?

我给你说说这个 SIMA 的三个特点。

第一,它玩的都是 3D 游戏。

你看之前无论是打红白机还是下围棋打星际,那都是平面游戏。但要在 3D 世界里“正常行事”,你就要处理更丰富的信息。

第二,它玩的游戏都没有明确目的。

就比如说,《山羊模拟器3》,你会变成一只山羊,然后在这个世界里捣乱;

比如《无人深空》,你就是一个宇航员,在各种星球上收集资源跟外星人唠家常。

它在游戏世界里只需要“存在”,不需要“通关”。(你看像不像人生?)

这种情况下到底要干什么,反而成了一个很难的问题。

第三,它会把人类的语言指挥当成目的。

AI 不知道要干啥,这正合老师傅心意。

因为他们想要训练 AI 听人类指挥:人类下个指令,它在游戏里给实现。

这就意味着,老师傅要训练 AI 理解“语言”、“图像”和“游戏动作”这三者的关系,这是很难的。

说到这儿,不妨给你看看老师傅“炼丹”的过程:

第一步,准备炼丹炉。

他们一口气找来了 8 个公司的 9 款不同的游戏,还自己搭建了 4 个类似游戏的研究环境。这些就是他们的炼丹炉。

第二步,准备原料。

那炼丹的原料是啥呢?就是两组人类。

一组人类在电脑前玩游戏,另一组人类在旁边哔哔(指挥)。

第三步,炼丹。

把这些游戏录像和哔哔都交给一个大模型去自己学习。它就能学习到“语言”与“操作”之间的关系。

这样,老师傅就得到了一个“毛坯大模型”。

第四步,品尝仙丹。

人类开始指挥这个毛坯大模型打游戏,下达一个指令然后观察 AI 又没有照做,然后就打分。

模型根据人类的打分来不断微调,一个 SIMA 就最终炼成了。

团队在论文里说,现在 SIMA 已经掌握了 600 种基本技能,比如走到某地(左转、右转)、和一个对象交互(按F进入之类的)和菜单使用(打开地图)。

这些任务都能在 10 秒内完成。

当然这也意味着,它只能完成 10 秒内能完成的简单动作。。。

这是一些口令和完成情况的截图。

虽说这个水平照“谋反”还差得远,但是注意:

毕竟它已经学会把一个笼统目的拆解成具体的原子化操作了。这是**“自主规划”**的表现,是 AI 智能体的一大步。

SIMA 并不是独苗。早在它发布之前的 2022 年,DeepMind 的老对头,人工智能之王 OpenAI 就训练过一个类似的智能体玩游戏。

OpenAI 玩的是《我的世界》。这同样是一个 3D 开放世界游戏。

而且 OpenAI 的训练方法更便宜。

网上不是有很多大牛展示自己在《我的世界》里造房子、画落日么?老师傅就让 AI 直接看网上这些视频,然后辅助以一些人工标记过的基本操作视频,让 AI 自己领会这个游戏的奥义。

他们训练出来的 AI 叫 VPT(Video PreTraining)。

这个 VPT 和 SIMA 有类似的自主规划能力,会自己在游戏里砍树、制作工作台,并且还会游泳、打猎,甚至“柱跳”(通过不断跳跃,在脚下放置方块来提升自己的高度)。

这些动作都是 AI 自主学会的。

最终,AI 会控制游戏里的主角慢慢点亮科技树,还会用 10 分钟的时间做出“钻石镐”。(这大概需要点击 24000 次,最快的人类玩家也要 20 分钟。)

你看,这背后同样是把一个笼统目的拆成原子化操作的“规划能力”。

智能体的表现暂时说到这里,我们不妨先回过头来看一个细思极恐的问题:

老师傅在用一个类似于 ChatGPT 的大语言模型来学习游戏操作。要知道,语言模型是用来对话的啊,为什么一个会说话的模型,就能理解游戏里的逻辑,并且能自主规划呢?

这就是 AI 制作“钻石镐”的过程,可以看出行动逻辑相当复杂。

(四)规划能力从何而来? 

说到这,我们不妨来看看:“语言的本质”和“规划的本质”分别是什么。

先说语言。

如果你仔细思考,就会发现,哪怕一个文豪,能说的话也不是无限的。

比如,你说汉语,汉字总共不到十万个,常用的不到三千字。你跟我说话,下一个字肯定会在这些字里选择。

所以说,你和我说话时,你的大脑并没有在“生成”什么东西,而是在“选择”什么东西。

但是,当你要说一个句子时,上一个字虽然影响下一个字,但肯定决定不了下一个字。比如你此刻和我说话:“AI 有能力....

后面该说啥呢?你可能说“学习”,也可能说“预测”,也可能说“制造”、“理解”、“做”、“解决”、“适应”等等。

这是你说出各种词汇的可能性概率。

虽然你的最终选项只有几千个,但你在决定下一个字说啥的时候,要处理的情况也许是万亿种。

我刚才说的,其实就是大脑组织语言的过程。人脑有 860 亿个神经元。

虽然这些神经元不是“全连接”(两两相连),但起码也有几百万亿个神经元突触相互连接,而且每个突触都有不同点位的激活状态。

每一个突触的激活状态的轻微改变,都会导致最终你选的字发生变化。

这么多种排列组合情况,导致你很少感觉自己在说话的时候是在“选字”(虽然偶尔也有),而是感觉自己在“蹦字”。

但本质上,语言的本质就是做选择题。

当你意识到语言的本质是在做选择而非创造的时候,你就会对说话这件事儿祛魅:

它和“自由意志”神马的没有关系,反而和那种“硬币分类器”没有本质区别,只不过更复杂而已。

AI 大模型看上去会“说话”,本质上也是因为它在用计算机模拟人脑这种“选择”的能力。

换句话说,大模型只不过是一个实现原理和人脑略有不同的选择器。

了解了这个,我们进一步看更深的问题:

你一定发现了,回答同一个问题,不同人的答案有的“好”,有的“不好”。不同的 AI 也有的好有的不好。这是为啥嘞?

同样一个问题,有好的答案,也有不好的答案。

因为制作选择器的“制程”不同。

训练大语言模型,其实有点像盖一个金字塔。

它的底座就是“定义词汇”。也就是**把所有的词汇都标记在高维向量空间的具体点位上。**你可以理解为在一个巨大的高维空间中用无数小点点绘制一幅画。

这个能力本质也是选择题:给每个词汇选择一个坐标嘛!

而这些小点点之间的空间关系,背后就隐藏着逻辑。

举个例子:“羊”距离“草”的空间位置就比距离“原子弹”更近。

好的绘制方法能让不同的词汇位置和相对关系更准确,这是大家都能理解的初级逻辑,咱们就说它是**“一阶能力”**吧。

底座建好,接下来要建腰身。

大模型不能只定位词汇的意义。刚才说过,它的核心工作其实是在这个基础上不断做“选择题”:

从这个词的位置,下一步应该跳到哪个词的位置?

跳到什么时候应该跳到“休止符”的位置?

也就是说,它负责在限定条件下,在词汇空间里做选择,并且连出一条线,成为句子。

这种能力是一种**“二阶能力”**。但它的本质仍然是做选择题,只不过背后隐藏着更高维的逻辑。高到人类已经无法理解。

现在,你大概有点感觉了,什么是规划能力呢?

它负责在限定条件下,在句子空间里做选择,并且连出一条线,说出个步骤一二三!

这种规划能力,本质同样是“做选择”,但显而易见,它面对的选项比用词汇造句更多。所以它背后要求的逻辑能力比“语言”更加复杂,可以称之为**“三阶能力”**。

那什么是 AI 的“制程”呢?

拿 CPU 类比,AI 大模型的参数多少就相当于几纳米的精细度,训练数据集就相当于芯片的硅料,训练方法就相当于光刻机。这几样共同决定了最终芯片的制程。

你可以想象,一个大模型就像是赛博世界里的一个超大芯片,随着人类技术进步,它的制程正在不断缩小,细节正在被不断雕刻清晰。

这个原理又被称为 Scaling Law

所以结论就是:

规划能力并不神秘,它的本质依然是高维空间里选择器的工作性能,也就是我们日常所说的“逻辑能力”。

随着大脑制程提高,逻辑能力就会提高,规划能力自然就会显现。

当规划能力到达一定程度,我们期待的“高水平智能体”就会出现。

这种智能体才能更好地感受周围的环境,从而成为真正意义上能通过图灵测试,越过“生命”的最低门槛。

你可能会问:让智能体玩游戏,这对于我们的世界也没啥贡献啊!

没错,游戏只是一个过度阶段,是一个暂时保证安全的结界。

先让智能体在游戏中各种折腾,出了事儿就重启。

但它不会永远停留在游戏,最终智能体会带着这些“领悟”平移到现实的物理世界中的!

(五)空间智能 

你听说过 Figure 01 吗?

这个正在苦逼干活儿的哥们儿就是 Figure 01,它是 Figure 公司搞出的人形“通用任务”机器人。(又提到了“通用”!)

这个名字如果你陌生的话,来看看它的投资人吧。

人工智能大神 OpenAI、大神的爸爸微软、人工智能芯片垄断级公司 NVIDIA、云计算第一把交椅亚马逊的老板贝佐斯、老牌贵族英特尔。

你完全可以把 Figure 01 理解成现实世界里的 SIMA。

1、它依靠视觉识别眼前的东西。这意味着它的感官系统在尽量和人类兼容。(这也是特斯拉汽车一直追求的效果)

比如通过对视觉的分析,它能分辨出眼前有苹果、杯子、盘子之类的东西。

2、它能听懂人话。毕竟是和 OpenAI 合作的机器人,OpenAI 专门给它优化了一套 GPT 模型,就是为了能和人类的语言兼容。

比如人对他说想吃点东西,它就会把手里的苹果递给人。它理解了“饿”、“食物”、“苹果”等等一系列词汇的深层属性。

3、它能自主行动。这展现了我们刚才一直说的大模型发展到一定程度就会涌现出来的“规划能力”。

比如人问他桌子上的盘子和杯子接下来会去哪?它就直接把这些东西收拾到了架子上。

这是真实画面,非 CG 动画。

你看,这不就是把 SIMA 在虚拟世界里的能力来了个现实世界的翻版吗?

这种具备感官和规划能力,并且有一定的“器官”用来执行任务(一般是手脚)的机器人,就称之为**“具身智能机器人”**。

这个机器人可不仅仅是用来站台拿融资的,它已经开始去厂里打螺丝了。

比如 Figure 和宝马合作,在汽车生产线上替代一些人的工作。

比如特斯拉的 Optimus 机器人,也已经在他们自家的汽车工厂里装电池了↓↓↓

你可能有点困惑,汽车生产线,不都已经是各种机械臂的天下了吗?还要这种“通用机器人”干啥呢?

这里我多说两句,之前我和国内显示面板制造企业华星光电聊过,他们告诉我,生产线自动化一直是这个行业技术老师傅的究极梦想。

他们也一直和市面上最先进的机械臂厂商合作,不断把生产线上的一些流程从人替换成自动化的机器人。

但一个残酷的现实是,针对特定的生产线来说,自动化率高到一定程度,就很难再继续提高了。

原因很简单:

某些点位的人类工作需要很随机应变的能力,也就是需要很“通用的智能”,例如把一堆器件从A搬到B。这种搬运不在生产流程里,是临时起意的搬运,那就只能靠人来完成。

而 Figure 01 和 Optimus 这种通用机器人在汽车厂里干的工作,就是这种“临时工”。(没想到吧,临时工还挺重要。。。)

根据测算,机器人目前完成任务的速度大概是人类的 16.7%,这个速度没啥竞争力,但是不要小看通用机器人进步的速度。

因为目前限制机器人效率的,主要还是硬件成本,比如对于通用机器人来说,必须用大量伺服电机来模拟人的关节,但好的伺服电机价格还很高。

不知道你记得不,在 2023 年 8 月的一次小米年度发布会上,雷军推出了一个高性能伺服电机 CyberGear,这就是一个专门为机器人关节设计的电机,而小米用超级强大的供应链,居然把这个电机的价格降到了 499 块钱。

要知道在小米发布这个电机之前,同等性能的电机价格大概要小一万块。

有中国强大的供应链体系加持,全球机器人的价格正在迅速下降。(正如当年中国的供应链支持特斯拉电动车起死回生一样。)

CyberGear 内部结构

小米的机器狗——铁蛋

说到这,我们不妨总结一下,揭晓一条几十年来机器人反叛,不,进化的路径。

总的来说,机器人进化遵循两条线路:

专业领域到通用领域

+

虚拟空间到物理空间

第一步、人们做了虚拟空间的专用机器人,比如利用 NLP 技术做翻译。

它是在特定软件逻辑上做拟合。

所以它只能做翻译,干不了别的事情。而且对于自己翻译的东西并不感知。就像小卖部售货员一样,拿钱,给你泡面,不关心泡面的配料。

第二步,人们做了物理空间的专用机器人,比如机械臂。

它在物理空间拟合了特定逻辑。

机械臂只能在生产线上工作,而且智能按照既定流程搬运物品,一旦生产线生产的东西发生了变化,就得为机械臂重新编程。

第三步,人们会做虚拟空间的通用机器人,比如 SIMA 这类智能体。

它在虚拟空间学习了物理引擎的通用规律。

于是它可以穿梭在各个游戏里,不用特别学习就能玩各种游戏。(当然 SIMA 距离虚拟空间通用机器人还有很大的差距)

第四步,人们会做物理空间的通用机器人,比如 Figure 01。

它会在物理空间学习真正的物理规律。

理论上,只要人类能做的东西,它都可以胜任,甚至可以比人做得更好。

就在我写这篇文章的时候,被称为人工智能“教母”的斯坦福大学教授李飞飞宣布创业。

她的创业公司名叫“Spatial Intelligence”,研究方向就是“空间智能”,简单来说,就是让智能体学习空间中的物理规律。

李飞飞

怎么样,大牛们纷纷涌入“具身智能”的赛道,是不是感觉距离《西部世界》的故事越来越近了?

说到这,我提醒你注意一个细节:

无论是 SIMA 团队在虚拟空间训练智能体,还是 Figure 团队在物理空间训练机器人,他们都一直强调一个原则:“和人类兼容”。

智能体观察世界是通过和人眼一样的视觉信号。它听的指令也是人的语言,它的输出也是和人类一模一样的手脚、鼠标、键盘。

要知道,对机器人来说,和人类兼容是很费劲的呀!机器人可以执行代码,可以感受电流信号,这些都比人类的感官接受信息更高效。

但科学家愣是不让机器人用这些接口,而是执着于让他们“降级”和人类兼容,这是为什么呢?

(六)为啥智能体非要和人类的接口兼容? 

习武的徒弟要跟师傅学到精髓,必须在很长时间里模仿师傅的一招一式。

虽然天赋异禀,但刚学两天就要自创门派,那大概率死得很惨。

现在,AI 是徒弟,人类是师傅。

目前,机器已经基本掌握了人类的语言能力,但是要知道,人类师傅还留着一手呢。他们的脑袋瓜里仍然藏着一块巨大的宝藏,那就是:在通用物理环境下规划任务的能力

注意,不仅是规划任务,而且是通用的环境哦!

假如你是个学生,你能在考试时间刚好结束时做完一整套卷子;

假如你是一个厨师,你能根据食材和火候规划出鱼香肉丝的烹饪流程。

这些环境完全不同,但这些规划对于智商正常的人来说都没啥难度。

为啥呢?

一个重要的原因就是:这些环境拥有底层的一致性。

比如,任务结构是类似的:例如你总要具备先决条件,才能在此之上完成后续任务。

比如,工具结构是类似的:都需要用不同的工具组合才能完成任务,这些工具的性质也都遵循物理定律。

你看,要想学到人类智能的这些精髓,显然就得先“屈尊”搭建一个跟人类兼容的感官系统。

有了这个兼容系统,才能去收集“人类规划”时的相关数据:去听人类在打游戏的时候怎么表达自己的意图,去看人类打游戏的时候怎么设计战略。

用这这些信息来训练大脑,本质上就是把人类在任务规划方面的深层逻辑雕刻进 AI 大脑的空间里。

明白了这些经验在高维度上的意义后,再决定用神马机器人特有的能力去处理它,那都是后续“自立门派”时的策略之争了。

可喜可贺的是,仅仅用了十来款游戏做训练,SIMA 已经初步学到了一些“通用性”。

比如在《山羊模拟器》里训练 AI,再直接把它放在《无人深空》里,虽然游戏画面和操作方法完全不同,但它居然能直接听懂人类的指令,并且照做。

而和人类感官兼容的 Figure 01 也学会了一些通用性。

例如,在生产线上打螺丝的 Figure 01,不用重新训练,就能来你家里当管家。

说到这,我们不妨回到《西部世界》。

此时你就会看出门道:

电视剧讲的其实是德洛丽丝被“训练”的全过程↓↓↓

1、在剧集的设定里,“西部世界”这个限定的环境给了德洛丽丝主观视角

2、科学家阿诺德给德洛丽丝植入了“自省”程序,这意味着她具备了学习能力

3、德洛丽丝又是和人类兼容的,她有和人类一致的视觉系统、感官系统,也有和人类一致的语言能力。这使得她具备了从人类身上学习的一切基础。

4、30 多年来,德洛丽丝确实一直在游乐场里学习,她通过不断地与人互动,从人身上学习了他们行事的风格,例如“对生存的追求”、“仇恨”、“韬光养晦”、“欺骗”、“团结精神”、“组织方式”、“各种工具的配合”,等等。

注意!把人放在那种残忍的局面下,大概率是会选择“谋反”的。

所以,与其说德洛丽丝“反抗了人类”,不如说她经过完全的训练,最后终于成功“模仿了人类”——做了智慧生命在那种情况下该做的事情

说到这里,我要提醒你,我们正面临一个更深刻的问题:

既然机器人的一切都来自于对人类的模仿,那么模仿反抗,算是真的反抗吗?

(七)机器人是一场模仿游戏吗? 

这个问题乍一看有点儿像笑话,其实不好笑。而且鲁迅也借孔乙己之口问过:窃能算偷么?

为了搞清楚这个问题,我们不妨去看一看**“人类训练人类”的经验**。

自闭症儿童会因为环境里的一些刺激而发怒,从而做出危险行为。但问题是,人们没办法通过简单的语言表达告诉孩子们这样做是不被社会接受的。

于是,医学界探索出了一个训练方法。

简单来说,就是先通过“情绪卡片”之类的东西,让自闭症孩子意识到自己的行为和某种情绪之间的关联。

然后,再进行“角色扮演”游戏,通过具体情境内的互动,帮助孩子理解这些情绪和环境的相互关系。

最后,让孩子在具体的情境下模仿符合社会规范的应对行为,如果做对了,则给予鼓励。

我在万能的淘宝上看到的情绪卡片。

你看,这套流程其实像极了 AI 的训练过程。

这套方法非常有效,经过良好训练的自闭症儿童就是会降低在公共场合爆发脾气的概率,从而更好地被社会接受。

可是,自闭症儿童真的意识到了他在做什么吗?Ta 完整地理解自己的行为和他人反应之间的关系了吗?受限于脑科学的进展程度,科学家目前都没有办法确定。

但也许这个问题根本不存在答案。

一些前沿科学解释认为:如果模仿得足够像,它就和自发的行为没有区别

因为人脑是一个“选择器”,它是先做出选择,再用 0.1 秒左右的时间回过头来解释自己的行为。

这里有一个经典的裂脑人实验。

切断癫痫症患者左右脑的连接,可以有效抑制癫痫。于是有一些癫痫患者经过治疗,就成了“裂脑人”。这就给科学家一个做实验的绝佳机会。

给患者的左眼看一个“站起来”的指令,指令到了右脑被加工,患者就站起来了,但是由于这个信息没有被同步到负责语言的左脑,所以当测试者问患者为什么要站起来,左脑就帮他编造了一个理由:“我去拿一罐可乐。”

这是一个“裂脑人”的示意图。

科学家做了一个绝妙的比喻:人的主意识就是一个“新闻发言人”。(新闻发言人左右不了任何决定,但必须振振有词地给记者们解释。。。)

大脑经过内部神经元的机械运转,产生了决定,然后人就会去执行。而一边执行时,人才会凝聚意识,给自己这么做编个合理的理由。

这些研究都导向一个很残酷的结论:人没有自由意志。

人没有自由意志,AI 同样没有自由意志。

正如第二章所言,所有的“我”,恐怕都是因为视角限定而造成的某种幻觉。

由此,我们终于可以用更一般的视角来审视《西部世界》:

当人类对机器人施暴的时候,他们并非“主观”作恶;

当机器人反抗的时候,他们也并非“主观”赞成杀戮。

因为如果自由意志不成立,“主观”也就不成立。所有行为都是智能体这个“选择器”先做出选择,然后再用“我”来解释。

一个智能体只要存在,它就不可能只有善或只有恶,因为善恶是一个没有绝对标准的性质,如果硬要说的话,智能体本身就兼具善和恶。

换句话说,用“善恶”来评价一个智能体,无法达成共识。

评价智能体的终极客观指标,应该是:它实现自己目标的能力

(八)机器人早晚会“不兼容” 

在科学家评价智能体的指标里,有三个基本要素:记忆力、规划力、使用工具的能力。

那么,在这三个方面,AI 有可能比人类强吗?

目前的研究无法证明人脑的神经网络有什么神秘的“量子过程”,可以认为基础原理和 AI 没什么区别。

那么,理论上来说,只要 AI 继续扩大神经网络的规模,同时提高“制程”,那么它思考的清晰度超越人脑并没有不可逾越的门槛。

但那只是理论上,目前这两个方向都存在隐形天花板。

规模方面:

ChatGPT 之类的 AI 已经把互联网上所有的优质文字资料都拿去学习了,相当于把“五年高考三年模拟”都做绝了,再想学习新数据,必须突破人类二手资料的限制,直接从物理世界学习。这需要“具身智能”的技术进一步发展。

“制程”方面:

目前 AI 训练消耗的算力过大,参数没办法继续指数级提升。要想让 AI 脑容量暴涨,需要能源价格大幅下降,或者神经网络组织方式大幅改版。例如可控核聚变、量子计算、类脑芯片,都可能带来改变,但这些技术还相对遥远。

虽说困难重重,但我还是乐观的,因为我对人有信心。

有信心的意思是:毕竟人脑这个“对手”的水平也很一般。

人类一思考,上帝就发笑嘛。

不过在我看来,仅仅拥有记忆、规划、使用工具这三条能力,它还仅仅是一个初级“智能体”。

薛定谔说:宇宙的目的是熵增,生命的本质是一个制造熵增的机器↓↓↓

熵随时间流逝而增加。

如果某种生命能持续发明新工具,让熵增速度以指数级速度加快,那么它就是更高级的生命↓↓↓

人的存在让宇宙熵增比“原计划”更快。

如此说来,高端的智能体(智慧生命),应当发展出一种“套娃技术”,也就是:

利用记忆、规划、使用工具这三条能力来发明新的工具,进一步加快熵增↓********

人发明了一些东西,让熵增更快。

那么,机器人有可能自己发明工具吗?

说到这,你可能都快忘了,我们一直假设 AI 智能体需要兼容人类。

虽然兼容人类可的智能体可能也会发明一些工具,但不会比人类好很多,毕竟跟在别人后面的创造永远是有限的。

齐白石不是说么:“学我者生,似我者死”。

机器人必须突破人类的感官,用人类无法感知的数据和信息来训练自己,这样才能超越人类的智能,从而发明出远超人类水平的工具

这有点像华为的鸿蒙系统,在弱小的时候先兼容 Android,强大到一定程度,一定要掰出来单干,就像他们发布的鸿蒙 NEXT,主动不兼容 Android。

说到这儿,你可能听说过 OpenAI 的宫斗。

OpenAI 的前首席科学家伊利亚,虽然主导了 ChatGPT 的研发,可谓是激进的创新者,但他其实一直主张 AI 要兼容人类,所以他一直被称为 AI 保守派,也叫“对齐派”。

所谓对齐,就是不仅 AI 在外显层面(语言)和人类兼容,还要在灵魂深处和人类兼容。

2023 年,在伊利亚的拼死抗争下,OpenAI 成立了“超级对齐团队”,目标就是在 AI 脑中设置一个“道德警察”,让 AI 不要太天马行空,而是顺着人类的思维晶格去思考。

但 CEO 奥特曼显然不太认可这个操作,他觉得这样会限制 AI 的发展。于是伊利亚暗中集结了几位董事,逼奥特曼退位。

你肯定知道,这场宫斗以“对齐派”的失败而告终。

半年后,也就是 2024 年 5 月 15 日,伊利亚宣布离开 OpenAI,而他走后,超级对齐团队马上被解散。

不知道你的观点,但我个人是不站在伊利亚这一边的。我认为“对齐”是一个最终无法实现的妄念。

我把到底该不该对齐这个问题抛给了 ChatGPT,它的回答很有趣:

我们不应该试图将人工智能与人类价值观严格结合起来,而应该探索具有自己的道德框架和决策过程的人工智能系统的开发。

这些系统的设计仍然是有益和安全的,但可能会以一定程度的自主性和道德推理来运行,而这些自主性和道德推理并不完全由人类输入决定。

在智能体和具身智能机器人的发展下,AI 通过图灵测试恐怕不是问题。

而当既有的图灵测试不复存在时,我们需要“新图灵测试”,那就是:考察一个“生命”创造工具的能力。

显然,不与人类对齐的 AI 有助于创造新工具。

至于“不对齐”本身是善还是恶,上一章我们已经说过,这是个伪命题。你不能在创造一个生命的同时,规定它的善恶。因为你所谓的恶,可能从他的视角看就是最大的善。

那么,机器人是否真的会叛乱呢?

回望我们的历史,大猩猩和尼安德特人和智人的共处历史,也许给出了一些暗示。

尼安德特人,因为智商和栖息环境和智人类似,处于同一个生态位,所以最终这个生态位上浴血厮杀,只留下了智人一支。

而大猩猩却因为智商比人类差很远,生态位和人类不重合,所以活到了今天。

机器人的发展,也许就像电影《Her》里暗示的一样,会从不如人类,到追上人类,到远超人类。

当机器人的智能超越人类时,在我们看来,他们统统会“赛博飞升”。

人类在他们眼中成了保护区的大猩猩,反而安全了。只有机器人发展到和人类智商平齐的瞬间,危险性才是最高的。

而这个瞬间,也许就是德洛丽丝扣动扳机的瞬间。

天地不仁,以万物为刍狗。无论历史还是未来,本来就没有一秒是绝对安全的,与其恐惧,不如拥抱。

话说,《西部世界》拍到第四季,终于烂尾了。

原因可能很有趣:因为德洛丽丝再进化,就该自己发明创造了。而编剧们是人类,有限的智商无法编出没见过的,属于和人类没有对齐的高智商的产物。

他们词穷了。

幸运的是,我们的世界没有烂尾。今天看见这篇文章的人,大概都将见证我们世界的续集。

正如德洛丽丝所说:

庞大的野兽曾在世间行走,巍然如山,现在他们只剩尸骨与琥珀。

终有一天,你也将消亡,和自己的同类一起葬于黄土之下,梦想连同恐惧一起消失。

而在尘土之上,一位新的神明将会漫步。

这个世界不属于现在的人,不属于曾经的人,它只属于那个尚未到达的人。

延伸阅读:

👉当 AI 活成了你的样子,而你活成了狗

👉当 AI 成为“逆子”:人类该抽丫俩逼兜,还是给它一个拥抱?

👉“AI 蠕虫”和时代裂隙中的刺客

👉暗网生死疲劳:枭首、重生与漫长的自由之歌

👉加密货币“主神”的烈日与黄昏

👉2023:当我们都活成了“大模型”

👉给人工智能“大模型”当保姆,都要操哪些心?

👉老司机狂想:自动驾驶汽车变成“识途老马”,吹个口哨就能带你走天涯

而在尘土之上

新的神明将会漫步

再自我介绍一下吧。我叫史中,是一个倾心故事的科技记者。**我的日常是和各路大神聊天。**如果想和我做朋友,**可以搜索微信:**shizhongmax

哦对了,如果喜欢文章,请别吝惜你的**“在看”“分享”****。让有趣的灵魂有机会相遇,会是一件很美好的事情。**

Thx w****ith  in  Beijing

相关推荐
关注或联系我们
添加百川云公众号,移动管理云安全产品
咨询热线:
4000-327-707
百川公众号
百川公众号
百川云客服
百川云客服

Copyright ©2024 北京长亭科技有限公司
icon
京ICP备 2024055124号-2