看点:Yann LeCun,Geoff Hinton和Yoshua Bengio将共享谷歌提供的100万美元奖金。
智东西3月27日消息,今天,ACM宣布:Yoshua Bengio,Geoffrey Hinton和Yann LeCun获得本年度图灵奖,以表彰他们在实验和工程领域所做的重大突破,使得深度神经网络成为计算的关键组成部分。他们将共同分享由谷歌提供的100万美元奖金。
图灵奖被誉为“计算机界的诺贝尔奖”,是计算机科学领域的最高奖,由ACM于1966年设置,设立目的之一是纪念著名的计算机科学先驱艾伦·图灵。历届获奖者均为计算机领域做出了持久重大的先进性技术贡献。
本届图灵奖的三位获奖者中,55岁的Bengio是蒙特利尔大学教授,魁北克人工智能研究所米拉的科学主任,并创立了一家名为Element AI的AI公司; 71岁的Hinton是Google副总裁兼工程研究员,Vector Institute首席科学顾问,多伦多大学名誉大学教授; 58岁的LeCun是纽约大学的教授,也是Facebook的的副总裁兼首席人工智能科学家。
三位获奖者的研究历程,既是AI回春的直接见证,是新科学计算的经济价值的体现者,更是科学勇气的标杆人物。
神经网络是最古老的AI方法之一,在20世纪50年代后期开始建立。然而受限于当时技术、算力等发展的瓶颈,神经网络长期未得到学术界和工程界的重视。
人工神经网络在20世纪80年代被引入作为帮助计算机识别模式和模拟人类智能的工具,到了21世纪初,LeCun,Hinton和Bengio是仍在坚持这一方法的小团体。
尽管三位获奖者重燃AI对神经网络兴趣的努力最初遭到怀疑,但如今,他们的想法推动了重大的技术进步,已成为AI领域的主导范例。
通过数十年的精心研究,他们将这种近乎边缘化的想法,变成了计算机科学中最热门的想法。他们所倡导的技术,已经成为谷歌、微软、苹果、百度、阿里、腾讯、特斯拉等每个大型科技公司未来战略的核心。
“AI现在是所有科学领域发展最快的领域之一,也是社会上最受关注的话题之一,”ACM会长Cherri M. Pancake说:“AI的增长和兴趣在很大程度上归功于Bengio、Hinton和LeCun奠定基础的深度学习的最新进展。数十亿人使用这些技术。任何在口袋里都装有智能手机的人都可以体验到自然语言处理和计算机视觉方面的进步,这在10年前是不可能实现的。除了我们每天使用的产品之外,深度学习的新进展为科学家提供了从医学、天文学到材料科学的强大新工具。”
“深度神经网络负责现代计算机科学的一些最大进步,帮助在计算机视觉,语音识别和自然语言理解方面的长期问题上取得实质性进展,”谷歌人工智能负责人Jeff Dean 如此赞扬三人的成就: “这一进步的核心是30多年前由图灵奖获奖者——Yoshua Bengio,Geoff Hinton和Yann LeCun开发的基本技术。通过大幅提高计算机理解世界的能力,深度神经网络不仅改变了计算领域,而且几乎改变了科学和人类努力的每一个领域。”
可以说,如今AI开始在各行各业广泛落地,离不开这三位AI大牛的所做出的重要贡献。
20世纪80年代末,加拿大硕士生Yoshua Bengio被一些人工智能学者通过编程模仿神经网络如何处理大脑中的数据的想法吸引。Bengio说:“我爱上了这样的想法,即我们既可以理解大脑的工作原理,也可以构建人工智能。”
Bengio是“AI圣经”《Deep Learning》等一系列教科书级著作的作者之一。他的主要贡献包括在在1990年代开创了将深度学习应用于序列的方法(Probabilistic models of sequences),将神经网络和概率模型(例如隐马尔可夫模型)结合在一起,应用于语音、文本理解等领域,并和AT&T公司合作,用新技术识别手写的支票。现代深度学习技术中的语音识别也是这些概念的扩展。
此外Bengio还于2000年还发表了划时代的论文“A Neural Probabilistic Language Model”,使用高维词向量来表征自然语言。他的团队还引入了注意力机制,让机器翻译获得突破,也成为了让深度学习处理序列的重要技术。
Hinton最重要的贡献来自他在1986年与人合著的反向传播的开创性论文“Learning Internal Representations by Error Propagation”,这种backprop算法是今天深度学习的核心之一。他在1983年提出的玻尔兹曼机(Boltzmann Machines),并在2012年对卷积神经网络的改进。
Hinton和他的学生Alex Krizhevsky、Ilya Sutskever 通过Rectified Linear Neurons和 Dropout Regularization改进了卷积神经网络,并在著名的ImageNet评测中取得了很好的成绩,在计算机视觉领域掀起一场革命。
Yann LeCun的一大杰出代表贡献是在1980年代推动了卷积神经网络的发展,如今这一技术已成为机器学习领域的基础技术之一,广泛应用于计算机视觉、自然语言处理、机器翻译等各类AI细分领域中。
LeCun的另一个重要贡献是改进了反向传播算法。他提出了一个早期的反向传播算法backprop,并根据变分原理给出了一个简洁的推导,使得反向传播算法更快,比如描述了两个简单的方法可以减少学习时间。
此外,LeCun还拓展了神经网络的应用范围,将神经网络变成了一个可以完成大量不同任务的计算模型。他早期引进的一些工作,现已成为了人工智能的基础概念。例如,在图片识别领域,他研究了如何让神经网络学习层次特征,这一方法现在已经用于很多日常的识别任务。他们还提出了可以操作结构数据(例如图数据)的深度学习架构。
一个关键节点发生在2012年,当时在多伦多大学的Hinton和两名研究生首次参加ImageNet图像识别比赛,通过其卷积神经网络AlexNet一举夺冠,准确率高达85%,比第二名(SVM分类方法)高了超过10%,使得卷积神经网络吸引到了众多研究者的瞩目。
2013年,谷歌收购了由三人组成的创业公司,此后,Hinton一直为谷歌工作。Facebook在那年晚些时候候聘请了LeCun。
Hinton和LeCun是两家全球最具影响力公司的副总裁,Bengio尚未加入一家科技巨头,不过他是微软的顾问,并与创业公司合作,将深度学习应用于药物发现等任务。
这三位获奖者走向了不同的方向,但仍然是合作者和朋友。当被问及他们是否会将传统的图灵奖演讲结合在一起时,Hinton笑着说建议将Bengio和LeCun放在第一位,因为这样他就可以自己讲讲他们出了什么问题。
当被问道这个玩笑是否反映了三人组的典型工作动态?Hinton说“不”同时LeCun善意地说“是”。
尽管深度学习取得了重大突破,但仍有很多不能做的事情。深度学习使得计算机可以玩特定的游戏、识别特定的声音,但不像人类智能那样具有适应性和多样性。
Hinton和LeCun表示,他们希望结束系统对人们进行明确和大规模训练的依赖。深度学习项目依赖于大量的数据来标明解释手头的任务,这是医学等领域的一个主要限制因素。
Bengio强调,尽管有更好的翻译工具等成功,但该技术远未能正确理解语言。 三人都没有声称知道如何解决剩下的挑战。他们建议任何希望在人工智能中获得下一个图灵奖突破的人——遵循自己的意愿,不要被主流思想左右。
原文来自:ACM,WIRED
4月19日,作为上海车展官方合作媒体和会议合作伙伴,车东西将在上海车展同期举办GTIC 2019全球智能汽车供应链创新峰会。首批5位大咖已经确认参会,扫码报名。
1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“智东西”微信公众号,文章版权归智东西公众号所有。