09 技术奇点——人工智能的自我挑战(第3/5页)

对抗生成网络即人类对神经网络进行了特别设计,让其主动产生干扰数据来训练网络的能力。简单地说,对抗生成网络由两部分组成,一个是生成器(generator),另一个是鉴定器(discriminator)。生成器好比是一个卖假货的奸商,但是制造的山寨品高度仿真,而鉴定器好比高超的买家,需要鉴别货品真假。奸商的职责是想方设法欺骗买家(生成对抗性样本),后者则通过这种历练不断吸取教训,减少受骗概率。双方都在不断努力以达到目的,同时在彼此的“监督”下提升。看上去仿佛军事演习中的蓝军与红军展开激烈对抗,由此强化双方战斗能力,但没有硝烟。

这又是一个“共同进化”的例子,是进化的深刻哲学,不是战争,而是纠缠,是“在持久的摇摇欲坠中保持平衡”。

就对抗生成网络来说,我们要的是这个成熟的买家,还是那个高超的奸商呢?答案是都需要。二者是共同进化的必然要素。

奸商模型有什么用处?在很多情况下,我们会面临缺乏数据的情况,但可以通过生成模型来补足。制造样本,产生类似监督学习的效果,但实际上是非监督学习。

来自英国谢菲尔德大学的Wei Li(李伟)、Roderich Groß(罗德里赫·格鲁)和美国哈佛大学的Melvin Gauci(梅尔文·高斯)一起,基于对抗生成网络,开发了一种新的图灵学习方法,用于研究群体行为。[6]比如一群鱼中混进一些模仿鱼运动的假鱼,如何判断模仿行为的逼真度呢?使用传统的特征归纳法来区分是很难的,同一群鱼每次表现出的运动特征也不一定相似。这个团队决定让机器通过互相模仿自动建立群体模型,让机器自主推断自然物与模仿物的行为。该深度学习同时优化两种群体计算机程序,一个代表模型的行为,另一个代表分类器。该模型可以模仿监督学习下的行为,也可以辨别系统和其他模型之间的行为。

具体来说,他们建立了三种机器人群体,第一种是被模仿对象,按照事先指定的规则进行复杂运动;第二种是模仿者,混入到第一组机器人中,尽力学习和模仿第一组的行为,尽力欺骗鉴定者;第三种是鉴定者,它的任务就是区分那些运动中的群体里谁是模仿者,谁是被模仿者。随着鉴定者能力的提高,模仿者的模仿行为也会越来越逼近被模仿者。于是,我们便可以利用训练好的模仿者搭建一个逼真的多主体模型,来对被模仿者群体进行模拟。这种模型就可以用于研究集体运动,比如可以根据摄像头记录的节假日热门景点的人群运动来训练出一个模型,强化对人群运动趋势的预测,对可能发生的拥堵踩踏事故发出预警。

机器的进化迭代过程比大自然快亿万倍。在这种对抗生成中,机器习得的逻辑已经远远超出人类的理解,可能成为一种“黑箱”。是追求“黑箱”,还是追求“白箱”,如何避免“黑箱”带来的不可知危险,这是对人类的一个挑战。

对偶网络

对偶网络仿佛对抗网络的一种镜像。

目前多数神经网络的训练依赖有标签的数据,即监督学习。而给数据标注标签是一项繁重的工作。据报道,谷歌的开源图片数据库Google Open Image Datasets中含有900万张图片,YouTube-8M中包含了800万段被标记的视频,而ImageNet作为最早的图片数据集,目前已有超过1400万张被分类的图片。这些精心标记的数据,大部分是由亚马逊劳务外包平台Amazon Mechanical Turk上5万名员工花费两年时间完成的。[7]

如何让机器在缺少标注数据的条件下工作,是未来人工智能的发展方向。2016年,微软亚洲研究院的秦涛博士等人在向NIPS(神经信息处理系统大会)2016提交的论文中提出了一种新的机器学习范式——对偶学习。大致思想是: