机器人能有什么坏心思呢?
最后更新:2022-12-30 浏览:6298次
机器人能有什么坏心思呢? 原创 郁喆隽 复旦商业知识 本文节选自 第26期《管理视野》 在8月20日的特斯拉 AI 日上,CEO埃隆·马斯克称,公司可能会在明年某个时候推出特斯拉人形机器人的原型,这款Tesla Bot原型机器人将有 1.72米高,56.6千克重,它还将拥有人类水平的双手,四肢使用40个机电推杆进行操作。 就在今年5月,网飞发布了剧集《爱,死亡和机器人》(Love, Death & Robots,以下简称“爱死机”)第二季的全部八集资源。虽然有影迷感慨这一季的观感远不及上一季,该系列显露出创作力衰竭的迹象,不过有一个主题却反复出现——机器人伤人。在本季的第一集《自动化客服》中,一台扫地机器人突然起了“杀心”,用激光干掉了家里的宠物狗,并开始追杀它的女主人。不仅如此,结尾处整个小镇上的智能机器人瞬间都出现“故障”,开始发动一场“革命”;在第七集《生命舱》中,从坠机中幸存下来的飞行员,最终被失控的机械狗杀死……在近几年的科幻影视作品中,机器人伤人这一主题似乎成为了一个热潮——从美剧《西部世界》,到英剧《真实的人类》,都在渲染机器人(和人工智能)伤害人类并代替人类成为主人的世界观。 可是,我不禁要问一个问题:机器人(或者任何意义上的人造物,包括人工智能)为什么要伤人呢?这里的“为什么”主要针对的是具有明确意图的行动。如果一个机器人受到人的指令而伤人,这显然是传统谋杀的一种变体,在这种情况下机器人仅仅被是人操纵的工具,就不再赘述了。这里讨论的机器人的重点也并不在于其人形,而在于其自主性(autonomy),也就是说它具有自行其是的能力。
对机器人伤人的担忧大致首先出于对“蛮力”(brute force)的恐惧。这里的蛮力既包含物理意义,也涉及计算能力,还指涉那种最终导致灾难性结局的多米诺效应。众所周知,人类发明机器人在很大程度上出于一个简单而功利的目的,那就是代替人类完成一些工作。因为在创造时就希望机器人在各方面能力上超越人类。当一台机器人具有了很大的能力——例如力量和速度,而不具有情景识别和道德判断能力时,它就有误伤的可能性。而在各种流行文化中的“巨物恐惧”(megalophobia),其实也就是这样一种朴素担忧的变体。面对这样一种担忧,需要考虑的就是如何让机器获得场景识别和避险能力。
伴随着计算机和人工智能的崛起,其“算力”可谓让人类喜忧参半——喜的是终于某些需要极大算力的问题可以得到解决,例如下围棋、气象预报、弹道模拟等;另一方面,人又担心巨大的算力将创造出一个全新的、人类无法驾驭的物种。这些担忧凝结在近年来围绕人工智能“奇点”(singularity)的讨论中。不过需要指出的是,这些担忧都基于一个近乎小儿科的所谓规律——从量变到质变。人们相信,算力的指数级增长将创造出“智能”乃至自我意识。然而从经验层面来看,早年的摩尔定律(处理器的性能每隔两年翻一倍)如今已近遭遇明显瓶颈,量子计算机革命也没有如约出现。
另一个对奇点的推理来自生物学。从几十亿年的生物演化史来看,智能(例如有大脑的脊椎动物)的出现是很晚的事件,一旦出现,从初级智能到高等智能(例如智人)却用了很短的时间。如果将这一过程做成一张图表——X轴是时间,Y轴是智能——就会呈现出一个躺平的L形曲线,它的前半段是一个极为缓慢、近乎水平的漫长发展过程,后半段出现了一个急速上扬。因此有人形象地称这样的曲线为“曲棍球杆曲线”。这样的曲线具有一个特点,即一旦越过了某一个临界点,就突飞猛进了。对超级人工智能的担忧,虽然包含了很多外行人看不懂的技术内容,但内底里却是这样一个朴素的道理——所谓的奇点也就是这样一个临界点——一旦实现了通用人工智能,超级智能(superintelligence)也就不远了,有人认为这甚至不以人类的意图而转移。不过从根本上来看,无论是摩尔定律还是曲棍球杆形曲线,都是一个对以往经验的归纳,并假定其他条件不变的情况下,它还会保持原有的发展趋势。这里面包含了太多的不可知因素和一厢情愿的臆测。宣扬奇点论是在向大众售卖焦虑,还是为了吸引风险投资呢? 其实,如果将机器人和人工智能当作另一个物种时,人类可以尝试“理解”它们。我们有必要问一下,机器人伤人的底层逻辑是什么?人类在面对未知事物时,能够运用的大致只有类比思维。机器人和人工智能往往被类比为一种超越了人类的新物种,其智力和体力远胜于现有的智人。但是就像让人类会将自己的能力放大并投射到神明上一样,我们也习惯于将人类的一些本性加到机器人身上。然而这样做却蕴含了一些不合理的思维跳跃。我们知道,动物(包括人类)的暴力行为部分地出于其生存需求(例如觅食和生殖),部分地出于社会压力(挑战既有等级、维护荣誉、尊严)。当然在考虑生物个体的时候,还需要预设它在绝大部分场景下具有自我保存的本能。
我们可以以此为基点,来进行一些思想实验:当一个机器人或者人工智能要进行自我保存的时候,其底层需求有哪些呢?显然会不同于人。我们可以想象,机器人首先需要一定能源供给。但是如果不需要巨大输出的话,其能量需求甚至可能远远低于于人类;其次,假设机器人的寿命预期远远超出人类,它也就没有死亡和迭代的概念,也就不需要进行生殖。于是机器人就可以避免很多因生育(生物学意义上的种内斗争)而引发的冲突。按照这一推理,甚至可以说,由机器人构成的文明可能要比人类文明来得更加和平。再者,机器人和人工智能也不需要很大的空间以及占有欲。毕竟人类是一种特殊的领地动物(territorial animal),群体的人所需要(或者说主张)的空间远远超出其实际需要的空间。如果将这一逻辑贯彻到程序和人工智能之上,我们甚至可以假定,不具有人形的智能存在者,大概并不需要人类意义上的空间需求。那么这是否意味着,人工智能对占有空间并没有需求,或者可以降到最低——即保障其固件的极小尺寸,一个机箱?如果是这样的话,它们是否会终结为争夺“生存空间”发起战争? 有意思的是,近年来很多科幻片不证自明地假定,突破了奇点的人工智能会和人一样,对空间有高度需求。这一假定本身是极为不合理的。在科幻电影《机械姬》中就设想,一个通过了图灵测试的人工智能,被安置在一台女性的人型机器人中。她设法杀死了其创造者之后,想要逃离那个庄园,进入人类社会。可是问题不仅是她为什么要杀人,还有她为什么要逃?大自然不做无用之事。一个智能存在者在绝大多数情况下,也不做非必要的事情。我们也可以用这一视角来观察自己一天的行为,大致都可以找到特定的基础需求。没有人对机械姬发号施令之后,她不应该怡然自得吗?这才是真正的自由吗?
这样的论证出现在两千多年前柏拉图的《斐多篇》中。苏格拉底在临死时就说,人认知真理的障碍是自己的肉身。人工智能在很大程度上就可以被理解为突破了人类肉身限制的纯粹智能体。而这具皮囊恰是恶行和暴力的来源。吕克•贝松导演的《超体》就设想了另一种可能:从人类演化而来的、超级智慧体露西,最终将自己转变为一个无处不在、没有定型的信息流。她对人类根本无欲无求,也没有必要伤害或正视人类。那才是传统神话中提及的“飞升”——任性逍遥,随缘放旷。于是乎,就产生了另一个的问题是,人工智能会和人一样产生无聊感吗?我在此无法作答,这里也可以引申到今年来热议的超人类主义(transhumanism)。 机器人伤人的叙事最终还根植于西方文化的宗教母题,即《圣经·创世记》中的失乐园。人类的始祖亚当和夏娃作为被造物,违背了上帝的意志,偷食禁果。作为惩罚他们被上帝逐出伊甸园。这个叙述的主线是“忤逆”——人神关系的破裂。在现代科幻文化中,这一母题被平移到了人机关系中——人作为造物主,机器人作为被造物。人担心机器人会背叛自己——另一个被造物忤逆造物主的叙事。假定所有被造物都有原罪,恰是出于人类原罪的基点,这不是一种绝对的以己度人吗?
极有可能的一个未来图景是平行论——由于人工智能和人类的基本需求极为不同,很少有重叠,因此居然可以相安无事,从而分道扬镳,展开两条甚至多条截然不同的文明路径来。未来是否真的会如此呢?让我们暂且放下自我中心的论断,坐看技术的风起云涌吧。
□ 作者/郁喆隽(复旦大学哲学学院副教授)
□ 封面图来自《爱,死亡和机器人》剧照
□ 本文全文将刊发于《管理视野》2021年9月刊,敬请期待
IFBK 0820 The End
原标题:《机器人能有什么坏心思呢?》