03 在大数据与深度学习中蝶化的人工智能(第7/14页)

之后的十几年中,关于人工智能的研究愈发热烈,灵感一个接一个地涌出。1952年,IBM科学家亚瑟·塞缪尔成功开发了一个可以下得越来越好的跳棋程序。他创造了“机器学习”的概念,并将它定义为“可以提供计算机能力而无需显式编程的研究领域”。

1957年,Rosenblatt(罗森布拉特)提出了感知机的概念,成为日后发展神经网络和支持向量机(Support Vector Machine,SVM)的基础。感知机就是一种用算法构造的“分类器”,是一种线性分类模型,原理就是通过不断地训练试错以期寻找一个合适的超平面把数据分开(超平面可以这样理解:三维坐标空间里二维的形状称作平面,能划分三维空间。如果数据是多维的,那么N维坐标空间里,N-1维就是超平面,能划分N维空间)。如同你把写着“正确”和“错误”的两堆球输入进去,感知机可以为你找出这两堆不同球的分界线。

感知机好比在输入和输出之间只有一层的神经网络。当面对复杂一点的情况时就力不从心了,比如当“正确”和“错误”的球互相混合的时候,或者又有第三种球出现的时候,感知机就无法找到那个分类的界线。这使感知机很难在一些即使看似简单的问题上有所突破。

如今,不需要人类输入规则(编程),而是让机器自己寻找规则,这样看上去机器就有了自己的智能。今天的人工智能便是在机器学习的基础上发展起来的,只是成长速度受到硬件和方法的限制。

如果多台电脑、多个芯片联网进行机器学习,而且具备多个芯片网络层次,就进入了所谓的“深度学习”的范畴。在20世纪70年代末,Geoffrey Hinton教授等人已经发现,如果能实现多层的神经网络,就可以逐层递进找到模式中的模式,让计算机自己解决复杂的问题。那时他们就开发了“反向传播”算法神经网络。但是多层神经网络的复杂性也导致对其训练的难度大大增加,数据不足和硬件计算能力成为掣肘。

从20世纪60年代中期到20世纪70年代末,机器学习的发展步伐几乎处于停滞状态。这种情况一直到20世纪80年代才有所好转。随着计算机性能的突飞猛进和互联网的到来,人工智能研究终于如虎添翼,在20世纪90年代,现代机器学习初步成形。

互联网在20世纪90年代投入商用,使分布式计算方法获得长足发展。超级计算机造价昂贵,而分布式计算技术则发挥了“人多力量大”的优势,让多台普通计算机可以协同工作,各自承担计算任务的一部分,并把计算结果汇总,效率可以超过超级计算机,而且分布式的结构正好适应了日渐增多的数据量。

计算机神经网络生长与深度学习

由于传统人工智能一味依赖科学家输入的规则模型,导致它只有在解决一些规则比较清楚的问题时才比较有效,比如击败卡斯帕罗夫的“深蓝”就是这样一种“人工智能”。当面对识别一张图片这类人类在婴儿阶段就能学会的简单问题时,这类人工智能却无计可施,因为这种认知类问题只有一个模糊的概念,没有清楚简单的规则。而计算机神经网络的特点就是它不需要人类提前告知规则,它会自己从海量的基础数据里识别模式(规则)。

顾名思义,神经网络类似人类大脑,由一个个神经元组成,每个神经元和多个其他神经元连接,形成网状。单个神经元只会解决最简单的问题,但是组合成一个分层的整体,就可以解决复杂问题。

Geoffrey Hinton认为,传统的机器学习方法只利用了一层芯片网络,在遇到真正复杂的问题时,处理效率就会变得十分低下。深度学习的最核心理念是通过增加神经网络的层数来提升效率,将复杂的输入数据逐层抽象和简化。也就是说,将复杂的问题分段解决,每一层神经网络就解决每一层的问题,这一层的结果交给下一层去进行进一步处理。