第九篇 可避免的冲突(第3/12页)

“正是如此。那些错误不该出现,西佛博士告诉我不可能。”

“他否认事实吗?多么不寻常啊!”

“不,他当然承认那些事实,我那么说对他不公平。他所坚持的是,无论机体中有任何错误,都不会导致他所谓的‘答案中的错误’。他声称机体会不断自我修正,如果电驿电路中存在任何错误,就会违反基本的自然律。所以我说……”

“你说‘无论如何,让你的手下做个检查,确定一下。’”

“苏珊,你看穿了我的心。我正是那样说的,但他说他做不到。”

“太忙了?”

“不,他说没有人做得到,这点他很坦白。他告诉我——我希望我没误解他——那些机体是个巨大的外推产物。是这样的,一组数学家花了几年时间,计算出一个具有某些类似计算功能的正子脑。利用这个正子脑,他们又做了进一步的计算,创造出一个更加复杂的正子脑,接着再用这一个来计算另一个还要复杂的正子脑,依此类推。根据西佛的说法,我们所谓的机体,是这种步骤重复十次的结果。”

“是的——这听来挺耳熟。幸运的是,我不是数学家。可怜的文生,他是个年轻人,在他之前的两位主任,艾弗瑞德・兰宁和彼得・玻格特都去世了。当年他们从未碰到这种问题,而我同样没碰到过。或许机器人学家这个角色也该死了,因为我们再也无法了解我们自己的产物。”

“这话显然不对。机体并非报纸周日增刊中所说的那种超级电脑——虽然周日增刊对它们的描写就是那样。只不过,就这项特殊功能而言,我是指以趋近于零的时间搜集和分析趋近于无限大的资料与关系,它们已演进到人力不可能详加控制的地步。

“于是我又尝试别的办法,我直接去问机体。在最机密的情况下,我们输入了钢产问题的原始资料、它自己当初的答案,以及后来的实际发展——也就是生产过剩,然后要求它解释两者的差异。”

“很好,它的答案是什么?”

“我能一字不差地背给你听:‘这件事不可解释。’”

“文生又如何诠释这个结果?”

“有两种可能。一是我们提供给机体的资料不足,使它无法得出明确的答案。但这不太可能,西佛博士自己也承认。二是对于那些暗示它能伤害人类的资料,机体无法承认能从中得到任何答案。这一点,自然是第一法则所暗示的结果。于是,西佛博士向我推荐你。”

苏珊・凯文显得非常疲倦。“我老了,史蒂芬。彼得・玻格特去世后,他们要我当研究部门主任,但我拒绝了。当时我已经上了年纪,我不想背负那个责任。结果他们让年轻的西佛接下这个重担,令我如释重负。但我现在若被拖下水,那又有什么两样呢?

“史蒂芬,让我对你说明我的处境。我的研究的确牵涉到根据机器人学三大法则诠释机器人的行为。而现在,我们面对的则是这些不可思议的计算机。它们也是正子机器人,因此也服从机器人学法则。可是它们欠缺人格;也就是说,它们的功能极其有限——必须如此,因为它们是那么专业化。因此,三大法则的互动空间非常狭窄,令我的研究方法几乎失效。总之,我不知道我能帮你什么忙,史蒂芬。”

总协干笑了一声。“纵然如此,我还是要对你说说其余部分。让我把自己的理论跟你讲一遍,或许听完后,你就能告诉我,根据机器人心理学,这些理论有没有可能。”

“当然好,请说吧。”

“好的,既然机体确实得出错误的答案,倘若假设它们不可能犯错,那就只有一个可能。它、们、接、受、了、错、误、的、资、料!换句话说,问题在于人类,而不在机器人身上。所以最近我做了一次全球视察旅行……”