现在,深度神经网络拥有更多的网络层次结构、更多的神经元以及每个神经元拥有更多的连接,为了训练这样的网络学习,就需要比反向传播算法更先进的技术。杰夫·辛顿(Geoff Hinton)于2006年提出了这一观点,他是一位英国出生的加拿大研究员,比任何人都认同深度学习的改革。不管怎么说,辛顿是个了不起的人,他也是20世纪80年代PDP运动的领导人之一,同样也是反向传播算法的创始人之一。我个人认为他最了不起的一点在于,当PDP研究失宠后,辛顿并没有灰心丧气,而是坚持下来,并以深度学习的形式将神经网络带入另一个辉煌,他也因此受到了国际社会的赞誉。(很凑巧,辛顿正好是乔治·布尔的曾孙,我们在第三章里提到过布尔,他是现代逻辑的奠基人之一。不过,辛顿声称,或许这是他和逻辑派传统人工智能唯一的关联。)
更深的网络层级、更庞大的神经元结构、更广泛的神经元连接,是神经网络深度学习模式成功的一个关键因素。而辛顿和其他人在关于训练神经网络方面提供的新技术是另一个关键因素。但深度学习真正获得成功,还需要另外两个因素:数据和计算能力。