11 美丽新世界 严肃新问题(第7/12页)

基督教新教把人类看作上帝实现自我意志的工具,而人类的自我反思总是在克服这种工具性。人不应该只是工具手段,人应该是目的和手段的统一,这一点可以在人工智能身上付诸实践。

二十三条军规

为“类人机器人”设定伦理和规则看来也是必要的。

在2017年1月5~8日举行的“Benificial AI 2017”会议上,1980名来自产业、学术和研究界的人工智能相关人士共同制定了“二十三条原则”,宗旨在于确保人工智能的健康发展,人人都能从人工智能中受益。这二十三条原则分为研究问题、伦理价值观和长期问题三个部分。[2]

研究问题方面,提出人工智能研究的目标是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:我们如何使未来的人工智能系统具有高度鲁棒性[3]?这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情。我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?我们如何更新法律制度实现更大的公平和更高的效率,跟上人工智能的发展步伐,管控与人工智能相关的风险?人工智能应该具有怎样的价值观,应该具有何等法律和伦理地位?

其他研究问题包括人工智能研究人员和政策制定者之间应该进行有建设意义、健康的交流;培养合作、信任和透明的开发文化;避免竞赛,避免在安全标准方面进行削减。

伦理价值观方面,二十三条原则提出了很多愿景,包括人工智能系统的安全,故障透明度(如果人工智能系统造成伤害,应该可以确定原因);由机器人做出的任何涉及司法决策的行动都要透明可解释,供主管人权机构审核;设计者与使用者要担起道德影响责任;要确保高度自治的人工智能系统的目标和行为与人类的价值观相一致,尊重人类的尊严、权利、自由和文化多样性;保障个人隐私,不仅人工智能系统能够分析和利用人类产生的数据,人类也应该有权获取、管理和控制自身产生的数据;不得不合理地限制人类真实或感知到的自由。人工智能带来的利益应当是普惠人类的;由人类选择如何以及是否委托人工智能系统去完成人类选择的目标;人工智能的力量应当尊重和改善社会健康发展所需的社会和公民进程,而不是颠覆这种进程;避免人工智能军备竞赛。

长期问题方面,建议在没有达成共识的情况下,避免对未来人工智能能力上限做出较为肯定的假设;通过相应的关怀和资源对其进行规划和管理,应对风险;对于那些不断自我完善或通过自我复制快速提高质量或数量的人工智能系统,必须采取严格的安全和控制措施。

最后一条是“共同利益”:超级智慧只应该为广泛共享的伦理理想服务,为了全人类而不是一个国家或组织的利益而发展。

二十三条原则,这个名字不由让人想起黑色幽默文学代表作《第二十二条军规》,那是一条不可能完成的规则。看起来,这二十三条原则更像是二十三条呼吁,提出的是问题而不是解决方案,代表的是愿望而不是已经实现的现实。其中涉及很多价值观问题,科学家倡导发展机器人要遵循人类的价值观,这是理所当然的。不过这里就会有三个问题:

第一,这里制定的价值观基础在于把机器看作工具,要求人类在使用工具时不得损害人类利益。实际上,在任何工具的使用上,人类都没有完全做到这一点,比如军备。不过确实可以尽力加以限制,比如军备条约。