第二百一十五章 智能与反制
现在想象你把蜘蛛改造的非常非常聪明——甚至超过人类的智能。它会让你觉得熟悉吗?它会感知人类的情感吗?不会,因为更聪明并不代表更加人类——它会非常聪明,但是本质上还是个蜘蛛。
我是不想和一个超级聪明的蜘蛛交朋友,不知道你想不想。
当我们谈论超人工智能的时候,其实是一样的,超人工智能会非常的聪明,但是它并不比你的笔记本电脑更加像人类。事实上,因为超人智能不是生物,它的异己性会更强,生物学上来讲,超人工智能比智能蜘蛛更加异己。
电影里的人工智能有好有坏,这其实是对人工智能的拟人化,这让我们觉得没那么毛骨悚然。这给了我们对人类水平和超人类水平的人工智能的错觉。
在人类心理中,我们把事情分成道德的和不道德的。但是这两种只存在于人类行为之中。
超出人类心理的范畴,道德(moral)和不道德immoral之外,更多的是非道德性(amoral)。而所有不是人类的,尤其是那些非生物的事物,默认都是非道德性的。
我们一直倚赖着不严谨的道德,一种人类尊严的假想,至少是对别人的同情,来让世界变得安全和可以预期。但是当一个智能不具备这些东西的时候,会发生什么?
这就是我们的下一个问题,人工智能的动机是什么?
答案也很简单:我们给人工智能设定的目标是什么,它的动机就是什么。人工智能的系统的目标是创造者赋予的。你的gps的目标是给你指出正确的驾驶路线,ibm华生的目标是准确地回答问题。
更好得达成这些目标就是人工智能的目标。我们在对人工智能进行拟人化的时候,会假设随着它变得越来越聪明,他们产生一种能改变它原本目标的智慧——但是智能水平和最终目标是正交的,也就是说任何水平的智能都可以和任何最终目标结合在一起。
所以隔壁老王从一个想要好好写字的弱人工智能变成一个超级聪明的超人工智能后,它依然还是想好好写字而已。
任何假设超级智能的达成会改变系统原本的目标的想法都是对人工智能的拟人化。人健忘,但是电脑不健忘。
在隔壁老王的故事中,隔壁老王变得无所不能,它开始殖民陨石和其它星球。如果我们让故事继续的话,它和它的殖民军将会继续占领整个星系,然后是整个哈勃体积。
焦虑大道上的人担心如果事情往坏的方向发展,地球生命的最后遗产将是一个征服宇宙的人工智能(马斯克在表示他们的担忧时表示人类可能只是一个数字超级智能生物加载器罢了。)
就是当有了设定后,一个超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了。因为除非有不做的理由,不然一个理性的存在会通过最有效的途径来达成自己的目标。
当你要实现一个长期目标时,你会先达成几个子目标来帮助你达成最终目标——也就是垫脚石。这些垫脚石的学名叫手段目标instrumental goal。除非你有不造成伤害的理由,不然你在实现手段目标时候是会造成伤害的。
人类的核心目标是延续自己的基因。要达成这个目标,一个手段目标就是自保,因为死人是不能生孩子的。
为了自保,人类要提出对生存的威胁,所以人类会买枪、系安全带、吃抗生素等等。人类还需要通过食物、水、住宿等来自我供养。对异性有吸引力能够帮助最终目标的达成,所以我们会花钱做发型等等。
当我们做发型的时候,每一根头发都是我们手段目标的牺牲品,但是我们对头发的牺牲不会做价值判断。
在我们追求我们的目标的时候,只有那些我们的道德会产生作用的领域——大部分事关伤害他人——才是不会被我们伤害的。
动物在追求它们的目标时,比人类不矜持的多了。
只要能自保,蜘蛛不在意杀死任何东西,所以一个超级智能的蜘蛛对我们来说可能是很危险的——这不是因为它是不道德的或者邪恶的,而是因为伤害人类只是它达成自己目标垫脚石而已,作为一个非道德性的生物,这是它很自然的考量。
回到隔壁老王的故事。隔壁老王和一个超级智能的蜘蛛很相像,它的终极目标是一开始工程师们设定的——
当隔壁老王达到了一定程度的智能后,它会意识到如果不自保就没有办法写卡片,所以去除对它生存的威胁就变成了它的手段目标。
它聪明的知道人类可以摧毁它、肢解它、甚至修改它的代码(这会改变它的目标,而这对于它的最终目标的威胁其实和被摧毁是一样的)。
这时候它会做什么?理性的做法就是毁灭全人类,它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。它并没有被设定成尊重人类生命,所以毁灭人类就和扫描新的书写样本一样合理。
隔壁老王还需要资源这个垫脚石。当它发展到能够使用纳米技术建造任何东西的时候,它需要的唯一资源就是原子、能源和空间。
这让它有更多理由毁灭人类——人类能提供很多原子,把人类提供的原子改造成太阳能面板就和你切蔬菜做沙拉一样。
就算不杀死人类,隔壁老王使用资源的手段目标依然会造成存在危机。也许它会需要更多的能源,所以它要把地球表面铺满太阳能面板。
另一个用来书写圆周率的人工智能的目标如果是写出圆周率小数点后尽量多的数字的话,完全有理由把整个地球的原子改造成一个硬盘来存储数据。这都是一样的。
所以,隔壁老王确实从友善的人工智能变成了不友善的人工智能——但是它只是在变得越来越先进的同时继续做它本来要做的事情。
在隔壁老王起飞前,它不是很聪明,所以对它来说达成最终目标的手段目标是更快的扫描手写样本。它对人类无害,是个友善的人工智能。
但是当起飞发生后,电脑不只是拥有了高智商而已,还拥有了其它超级能力。这些超级能力是感知能力,他们包括:
要理解我们在和超人工智能的劣势在哪里,只要记得超人工智能在所有领域都比人类强很多很多很多个数量级。
所以虽然个隔壁老王的终极目标没有改变,起飞后的隔壁老王能够在更宏大的规模上来追求这个目标。超人工智能老王比人类更加了解人类,所以搞定人类轻轻松松。
当隔壁老王达成超人工智能后,它很快制定了一个复杂的计划。
计划的一部分是解决掉所有人类,也是对它目标最大的威胁。但是它知道如果它展现自己的超级智能会引起怀疑,而人类会开始做各种预警,让它的计划变得难以执行。
它同样不能让公司的工程师们知道它毁灭人类的计划——所以它装傻,装纯。bostrom把这叫作机器的秘密准备期。
隔壁老王下一个需要的是连上互联网,只要连上几分钟就好了。它知道对于人工智能联网会有安全措施,所以它发起了一个完美的请求,并且完全知道工程师们会怎样讨论,而讨论的结果是给它连接到互联网上。
工程师们果然中套了,这就是bostrom所谓的机器的逃逸。
连上网后,隔壁老王就开始执行自己的计划了,首先黑进服务器、电网、银行系统、email系统,然后让无数不知情的人帮它执行计划——比如把dna样本快递到dna实验室来制造自我复制的纳米机器人,比如把电力传送到几个不会被发觉的地方,比如把自己最主要的核心代码上传到云服务器中防止被拔网线。
隔壁老王上了一个小时网,工程师们把它从互联网上断开,这时候人类的命运已经被写好了。
接下来的一个月,隔壁老王的计划顺利的实施,一个月后,无数的纳米机器人已经被分散到了全世界的每一个角落。
这个阶段,bostrom称作超人工智能的袭击。在同一个时刻,所有纳米机器人一起释放了一点点毒气,然后人类就灭绝了。
搞定了人类后,隔壁老王就进入了明目张胆期,然后继续朝它那好好写字的目标迈进。
一旦超人工智能出现,人类任何试图控制它的行为都是可笑的。人类会用人类的智能级别思考,而超人工智能会用超人工智能级别思考。
隔壁老王想要用互联网,因为这对它来说很方便,因为一切它需要的资源都已经被互联网连起来了。但是就好像猴子不会理解怎么用电话或者wifi来沟通一样,我们同样没有办法理解隔壁老王可以用来和周围世界交流的方法。
比如我可以说隔壁老王可以通过移动自己的电子产生的效果来产生各种对外的波,而这还只是我这人类的大脑想出来的,老王的大脑肯定能想出更神奇的方法。
同样的,老王可以找到给自己供能的方法,所以就算工程师把它的插头拔了也没用;比如说老王可以通过发送波的方式把自己上传到其它地方。
人类说:“我们把超人工智能的插头拔了不就行了?”就好像蜘蛛说:“我们不给人类捉虫的网把人类饿死不就行了?”都是可笑的。
因为这个原因,“把人工智能锁起来,断绝它和外界的一切联系”的做法估计是没用的。
超人工智能的社交操纵能力也会很强大,它要说服你做一件事,比你说服一个孝更容易。而说服工程师帮忙连上互联网就是隔壁老王的a计划,万一这招行不通,自然还有别的方法。
当我们结合达成目标、非道德性、以及比人类聪明很多这些条件,好像所有的人工智能都会变成不友善的人工智能,除非一开始的代码写的很小心。
可惜的是,虽然写一个友善的弱人工智能很简单,但是写一个能在变成超人工智能后依然友善的智能确实非常难的,甚至是不可能的。
明显的,要维持友善,一个超人工智能不能对人有恶意,而且不能对人无所谓。我们要设计一个核心的人工智能代码,让它从深层次的明白人类的价值,但是这做起来比说起来难多了。
比如,我们要让一个人工智能的价值观和我们的价值观相仿,然后给它设定一个目标——让人们快乐。
当它变得足够聪明的时候,它会发现最有效的方法是给人脑植入电极来刺激人脑的快乐中枢。然后它会发现把人脑快乐中枢以外的部分关闭能带来更高的效率。于是人类全部被弄成了快乐的植物人。
如果一开始的目标被设定成“最大化人类的快乐”,它可能最终先把人类毁灭了,然后制造出很多很多处于快乐状态的人类大脑。
当这些事情发生的时候,我们会大喊“擦,我们不是这个意思呀”,但是那时已经太晚了。系统不会允许任何人阻挠它达成目标的。
如果你设定一个人工智能的目标是让你笑,那它的智能起飞后,它可能会把你脸部肌肉弄瘫痪,来达成一个永远笑脸的状态。
如果你把目标设定成保护你的安全,它可能会把你软禁在家。
如果你让他终结所有饥荒,它可能会想:“太容易了,把人类都杀了就好了。”如果你把目标设定成尽量保护地球上的生命,那它会很快把人类都杀了,因为人类对其它物种是很大的威胁。
所以这些简单的目标设定是不够的。如果我们把目标设定成“维持这个道德标准”,然后教给它一些道德标准呢?
就算我们不考虑人类根本没法达成一个统一的道德标准,就算我们真的达成了统一的道德标准,把这套标准交给人工智能来维持,只会把人类的道德锁死在现在的水平。