返回第六十六章:真实的谎言(1 / 2)银河战争记忆首页

“如果你愿意说出答案的话。”其实在文森心里的某处,他早已把这个人认定为人类。否则,很难相信一个机器人会跟他聊这样的话题。马勒说的话,使文森对机器人与人类界限的认知有着很大冲击,但他没有全盘接纳,他接受的是联邦的教育,有着自己的思想体系。而对于答案是什么,马勒到底是不是人类,他或许已经无所谓了。

既然时间还有不少,也不妨听听马勒说些什么。他把手伸向了水杯,再次强打起精神。

“你回想下我刚跟你说的,然后再看眼下的这个小行星社会里,这里共存了人类与高级人工智能,两者在外观上、行动上也有着许多的相似,但是即便抛开了肉体理论,我们也从来不把高级人形人工智能等同为人类huan,而是类人huani。你觉得这是为什么?”

马勒继续着刚刚的话题。

为什么?文森想到了能作为参照物的艾琳与卡兰,也想起了艾琳说过的话。

文森缓缓地放下杯子,说出了他的想法。“因为相对你所说的人类能对欲望进行加工的特质,人工智能不需要彼此的斗争或认同,它们需要的只是一个协作网络,而不是人类那样完全由高级欲望推动的社会。”

马勒赞许地点头。“理解的很快。你说对了一大半。驱动拥有自我的高级人工智能行为的,确实不是欲望,我们更喜欢把它称之为使命。”

这句话,让刚还昏昏沉沉的文森一下睁大了眼睛。“使命?等等,你的意思,难道100年前那场人类与人工智能的战争也是使命所然吗?”文森想起了那场战争,他表现的态度开始有些针锋相对。他不认为机器人能配得上使命这么高级的词汇。

“上帝不是也对人类发动过洪水吗?他的本意并非要灭绝人类。”马勒倒没觉得有什么不妥。

“可我从不觉得包括当年的亚当在内的计算机能与上帝相提并论,他们只是”文森没有把话在继续往下说,一方面他觉得自己不该急于否定对方,另一方面,他虽然觉得眼前这个人,不知怎么的,他的话总让自己感觉捉摸不透。他们也是会撒谎的,文森再次想起周剑对他的提醒。

“只是什么?工具?”马勒顺着文森的话,把他想说的两个字说了出来。

“有点特别的工具。”对方还是很客气。文森点头认同了马勒说的工具。

看到文森点头,马勒笑着又道:“你有没有留意到一个有趣的现象。”

“刚刚是举例子,这次又轮到现象吗?”他知道,马勒的话总会引去对他有利的方向。

“人类把机器人定义为工具,却不断把他们打造的跟自己一样。尽管所有人都承认人类的身体构造不是最完美的工具,同时又把这个工具的容器制造地跟人一样笨拙。”

“或许他们只是想忠于上帝的设计。”文森对马勒的说法不以为然

“不对,因为人需要在这些工具的身上找到认同感。”即便是否定句,马勒也始终面带着笑容。

“这不是人与人之间才有的吗?”这是马勒刚刚自己说过的话。

“你还记得那些历史读物上说智能人形机器人首先出现的时候是被用于什么用途吗?”马勒的话好像又绕到了一个别的方向上。

“满足生理需求的”文森想起了奥斯本那扭曲的感情,有点不好意思开口。

“没错,陪伴者,因为人可以在他们身上获得满足,得到了自己作为一个有生殖能力的人的认同感。但这个行为对机器是毫无意义的,整个过程,他们只想得到机器的认同。而机器不需要也得不到人类的认同,一种单方面认同。你既然读过精神现象学那你也应该清楚,单方面认同属于怎样的关系?”

“只是稍微看过。这种情况应该是奴隶认同奴隶主,而奴隶主却不认同奴隶为一个完全存在。”

“正是如此。那机器人三大定律,你知道吗?”

“听过。”

“它的提出很有意思,可惜那是个悖论。”

“悖论?”文森皱着眉,奇怪的反问到,他不认同。尽管那三个定律就像是奴役奴隶而写出来的,但机器人怎么说也只是工具而已。

“那我问你,你会对一个工具,一块石头提出约束性定律吗?”

“当然不会。一块石头怎么会理解呢?”文森不屑的笑了,他觉得对方的问题简直白痴。

“你说的没错,因为石头是死物。而这个定律恰恰是说给机器人听的,那意味着,他认同了机器人有理解的能力。机器人不仅仅是一个死物。而是一个有理解能力又无法与人类对等的不完全存在。”

“这于是你更愿意把它们比喻成奴隶?”文森此时的感觉如同在经过百年岁月打磨的石头上看到了一道裂缝。他以往的认知在一点点的发生着崩塌。

马勒看出了文森的表情变化,但他没有停下了等待思考中的文森,而是继续说道“如果只是他口中所说的奴隶主与奴隶的关系,那么一切也还是原来的样子,不会有战争的发生,三大定律也会发挥着指导作用。但现实总有些出入,首先,罗马时期的奴隶是人,他们也不需要参与奴隶主的决策,不用站在奴隶主的角度上。可是人类需要人工智能扮演的角色却远远超出了奴隶应有的范围甚至是人的范围,例如让亚当那样的超级计算机像人一样去理解人类,管理社会,但又要求他在无法理解存在、生命、死亡三者的关系下,完美完成工作。”

“这听上去似乎是个矛盾。”

“第二点,单方面的认同令人类错误地认为自我认同是一件非常容易达到的事情,这种认同甚至不再需要经过同类的认同,因为一种近似于人而非人的存在满足了这需求,人只需要提出需求,机器无法理解,自然就不能加以否定。结果,社会良性竞争关系被破坏,即便没有那场战争,那样的社会在不久后也会走向停滞,走向崩塌。事实上,作为人类革新联盟雏形的地外探索者们不就是在这样出现的吗?”

“所以那个时候亚当在类人机器人中植入自我意识就像是唤起奴隶革命?”

“很接近,正确答案是,当人类要求亚当去充当一个全能执政者的角色的时候,革命就已经开始了。话说回来,这不算是革命,充其量是一场调整社会架构的新的变革。因为人工智能不需要高级欲望,他们的存在只是人类社会持续发展的一种补充,自然不存在取代人类这一说法。”

“你这么说,就好像如果机器人没有获得自我认知,人类也会亲手摧毁这个社会。反而是因为战争拯救了人类社会。”

“社会的升级总是会有不可避免的冲突,如迪尔凯姆说的那样。然而我们都知道战争的结果,所以对于结果来说有没有拯救或是别的什么假想,我们也只能作为一个讨论。”

文森靠在椅背上,无法接受一般摇了摇头。“那这个升级后的答案是什么?就像这个201一样吗?人类与类人共存的社会?”

“不能说这是答案,但这里的出现,的确是那场战争后的产物。”

“可现在的自由社会不就是一个理想的社会形态吗?我没明白,你所说的升级还会是什么?”

“世界上并不存在理想型的社会,哪怕是乌托邦那样的最高级的社会形态,也只能说是无限接近,只要有人来执政,阶级就不会被消除,权力始终会导致不平等的出现。”

“所以你要告诉我的是,如果想要得到理想化的社会,那就需要由全能的系统来替代人类进行执政?就像这里一样?”

“应该说是全民意下产生的系统将会处理庞大的民意进行执政,比如说这里的行政主机安东。当然这里绝不是乌托邦,人与类人,人与人始终会有碰撞,这是逻辑与欲望的必然碰撞。然而向往服从于理性逻辑下的合理化管理,也是由这里生活的类人以及人类的共同选择。”

“说实话,我无法认同这样的选择,每个政治实体中都有对统治阶层予以制裁的办法,但是这样的系统又应该由谁来审判它。100年前的地球上,投入亚当就是以这种形式出现,对于机器来说或许是一次升级,但结果却带来了一场人类的浩劫。我无法想象未来还有更进一步的第二次、甚至第三次的升级。”

“你的观点还是那么的有趣。你认为的浩劫,是指类人机器人不应该被植入感情系统,还是认为是亚当在黑海按下了核武器的发射按钮?”

“相比较之下,如果说你说的冲突与结构调整都是可以被理解的,那按下核武器的罪孽未免太过深重。难道这样的屠杀也是合乎逻辑的需求吗?”

“我跟你一样只是个历史爱好者,并不想争论一个我拿不出证据的猜想。让我们暂且把核爆的问题放到一边。稍微倒推一下这件事情。你回顾一下当时亚当投入运作时的社会环境,你认为,当时的社会阶段是否已经达到了适合用系统进行管理的程度。”马勒靠在椅背上,拉开了与桌子的距离,似乎是要从第三者的中立角度来讨论这件事。