11 美丽新世界 严肃新问题(第8/12页)

第二,人们之所以前所未有地郑重其事,是因为意识到机器人不同于以往的工具。普通工具没有生命、没有意识,完全听命于人的操作。但机器人如果具有了类人意识,那么人类怎么对待它们?显然二十三条原则并未考虑这个问题。人类拒绝奴役人类,把人当作工具就是一种奴役,那么对机器人呢?如果人类的价值观就是让机器人做工具,类人机器人会认为这种价值观有尊严吗?

第三,人类的价值观本身就存在各种冲突,众所周知,制定这些原则的与会者基本属于硅谷阵营。硅谷阵营在美国2016年大选中的态度及其价值观就和特朗普阵营发生了激烈冲突,他们制定的规则看上去很美,但在现实中未必符合很多人的价值观。

二十三条原则表达了人类良好的愿望,相当于科学家为机器人设置了一套“政治正确”。考虑到“政治正确”在当下美国的尴尬遭遇,我们要明白,人工智能的“政治正确”不是一蹴而就的,集体签名是一回事,做起来是另一回事。价值观不是静态的观念,而是在博弈中生成。价值观也不可能孤立地存在于某种群体身上,比如机器人的价值观实际上是人机的价值观。未来人工智能可能将加入这个博弈,形成新的、动态的人机价值观。我们需要在实践中不断摸索人工智能与人类发展的健康之路。二十三条原则起到了探路者的作用。

现实的法律问题

虽然“算法代替律法”的前景已经出现在不少科技人士的视野里,但到目前为止,法律依然是调节人类社会关系的主要手段。我们需要考虑,人工智能时代的法治会遭遇什么挑战,应该如何应对。

人工智能不仅仅是技术问题,而是整个社会运作方式改变的问题。《少数派报告》这样的电影已经预见了事前的预防性管理会出现。深度学习技术的最大作用在于预测,这也给以往法律思维带来新的启迪。比如法律将从事后补偿模式向事先预防模式变化。不过这个过程将非常不确定。

以算法的复杂性来说,技术界区分了强人工智能和弱人工智能。有学者认为,人工智能在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。因为法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。生产资料之间的信息变得越来越对称,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者都无法理解的秘密状态,这都回到了法律如何处理与代码的关系问题。[4]

具体体现在法律抽象化与技术黑箱化之间的冲突。比如,“快播案”这样一个涉及互联网技术而非人工智能技术的案件里,法律责任认定的过程很漫长也很艰难。监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故就可以避免,黑箱提供者就应当承担责任。在这种情况下,我们可以预见,保险(甚至是强制险)就成为那些事故发生概率小但潜在损失巨大的市场的不二选择。

涉及技术的航空、医疗保险市场已经十分发达,可以预见保险将会延伸至更多由人工智能驱动的服务行业。

在另一方面,也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。例如,征信系统中禁止收集种族、性别、宗教派别、政治倾向等歧视性信息;在声誉系统中打击网络推手刷单,避免虚假数据;通过地域性监管限制网络专车及其司机的资质等。法律机器人本身也是一种辅助人类面对复杂规则做出判断的好办法——用技术进步来解决技术带来的问题。