微信扫一扫
分享到朋友圈

侯世达:我讨厌“人工智能”这个词,因为它们没有智能

作者:果壳网 来源:果壳网 公众号
分享到:

03-06

四十年前,一本奇书《哥德尔、埃舍尔、巴赫:集异璧之大成》横空出世。作者道格拉斯·霍夫施塔特(中文名侯道仁,中译第一版使用的译名是侯世达)在这本书里横跨艺术、音乐、数学、意识和智力等众多领域,成为那个时代最令人印象深刻的AI著作,为他赢得了普利策奖和美国国家图书奖。

 

《哥德尔、埃舍尔、巴赫:集异璧之大成》 | douban.com


然后他就消失了。

 

他并没有真的失踪,还在一直思考AI。但是,《集异璧》出版的年代,正好是“古典”AI时代最后的光芒。三十年的研究并没有像研究者预期的那样给出关于智能的突破性进展,热情和经费都在逐渐消退。人工智能研究者逐渐把重点放在能否让机器系统来解决实际问题;至于图灵当年提出的那个问题——“机器能思考吗”——被大部分人认为太过哲学、太过模糊,只适合放在课本的第一页,而和日新月异的应用无关了。

 

今天,最火的AI路线是机器学习如果一个人只看新闻头条的话,也许会觉得AI问题已经被解决了:机器学习AI能下棋,能开车,能翻译,能聊天,能看病,能答题,能认动植物,能写诗作画,就差取代人类了。

 

真的吗?

 

侯道仁不这么认为。他说,AI不“懂”。AI在操纵数据,但不知道这些数据是什么意思,不知道它们还对应着一个现实世界脱离现实的AI永远不会懂得现实。


侯道仁 |  Greg Ruffing


在这个问题上他显然是少数派。他已经几十年没有参加过学术会议了,也和AI的主流研究者罕有对话——“我对他们的状态不感兴趣”。很多时候这算不上真的冲突,双方只是在就不同的话题和不同的时间尺度思考。

 

但他所思考的问题确实是直击盲点——


数据集里能堆砌出智能吗?不带目的和情绪的,算得上智能吗?现在的AI能做很多事情,但它们真的“懂现实世界”吗?或者,它们只是一个个空无一物的黑盒子而已?

 

毫无疑问,今天的人工智能领域非常成功,不需要考虑这些问题也在快速进展。但是这样的进展也许是没有办法持续下去的。不去解决一些更加深层的问题,也许就会像寓言里那个想靠爬树抵达月亮的人一样:“他将不断进步,直到树的尽头。”


 

Q&A | 果壳 ✖ 侯道仁 


果壳:为什么你会采取这样一种脱离主流的研究方式呢? 


侯道仁:我其实不觉得我是在正常意义上的“做研究”。我是以一种个人的状态在探索想法,如果可能的话,就写书来传递它们。驱动我这样做的,是一种寻找美、寻找优雅的力量。另外我还喜欢不严肃

 

我对企业的商业目标不感兴趣——你知道就像谷歌的AI产品什么的。我感兴趣的是理解人类思考,理解语言,理解这些东西的深度和复杂性


我对这些事情十分尊敬,而我的感觉是那些科技公司好像就不怎么有尊敬的态度。这个肯定不是一概成立,做这些项目的人成百上千,每个人都是独一无二的人,都有自己的想法;但是公司自己会有一种动量在推动这些人,让他们去公开宣布“我们抵达了人类翻译的水平”这样的话。


我不知道谷歌翻译团队的成员是不是真的相信这些话,但是他们显然有这种“Chutzpah”——你知道Chutzpah这个词吗?这是一个意第绪语的词,有这种狂妄自大来说这样的荒谬言论。当然他们的产品是很厉害,往谷歌翻译里敲一篇文章或者复制一个网页,两秒钟之后右边就出来译文。有时候译文会很不错,因为他们确实用了海量的知识,不,不是知识——


ai.google


果壳:数据?

 

:对,数据,而且相当的快。但是很多时候,译文都差得好远。就像我举过的例子: The roofer came down from the roof of the hospital carrying a case of shingles. (屋顶工人从医院的屋顶上下来,带着一箱瓦片。)

 

翻译软件给出的是“一箱带状疱疹”。这和带状疱疹没有任何联系啊!屋顶工人带着的shingles很明显毫无疑问是瓦片。而且它还用的是“一箱”。你怎么可能有“一箱”疾病呢? 

 

这完全讲不通,这是垃圾。但是这就是翻译软件做的事情,因为它根本就不理解任何东西。是零。它不知道有这样一个世界,有这么多事情正在其中发生,不知道有过去和未来,不知道有大有小有上有下。它什么都不知道。它所知道的一切就只是字词。


果壳:而不知道意义? 


:甚至都谈不上是知道字词,它只是在使用字词而已。连这么简单的句子都不能理解,你怎么能宣称这是人类级别的翻译呢?


侯道仁 | news.stanford.edu 

 

果壳:这些不算个别的例子吗? 


:你得用这些例子才能揭示出它后面的空洞,证明它没有理解。机器翻译是巧妙的花招,有时候能完美生效,在简单句子上通常都能行——但不是每一个句子都行

 

整个机器翻译领域里最著名的一个例子,“The box was in the pen.(盒子在棚里。)”我试过的每一个程序在这个句子上都失败了。甚至给了上下文也没有用:“Little John was looking for his toy box. He looked everywhere and he finally found it in the pen. He was very happy.(小约翰正在找他的玩具盒子,找遍了所有地方,终于在棚子里找到了它。约翰很高兴。)”

 

果壳:都翻成了盒子在笔里。 


:而任何人类都能理解。当然他们可能会笑一下觉得这个很有趣,因为pen这个词乍一看可能会让人觉得是你口袋里的“笔”,显然原句的pen说的不是笔。但是人类顶多是想一想,而程序则直接掉进了坑里。但如今60年过去了。这个句子来自机器翻译领域有史以来最著名的文章,发表于1959年;60年之后的现在,这么多机器学习的成就,都还无法让程序跳出这个陷阱

 

而且机器学习还很大程度上是黑盒子,如果它犯了一个错误,你很难知道要怎么修。


果壳:我觉得这种事情就像是自驾车的状态一样,它们好像是能识别出看到的图像,但其实并不能真的理解这些图像。你会不会觉得,让AI在不理解这一切的情况下做这些事情是危险的?     


使用自驾系统时发生车祸的特斯拉汽车 | bbc

 

:当然是危险的。的确,我们有很多工具做了很多事情,这些工具也啥都不懂。比如说机场的不同航站楼之间有小火车连接,车里没有人类工程师或者司机,但这都是很简单的,是固定轨道,固定起点终点,轨道上几乎不可能有什么障碍,所以你能信任它。某些大城市的地铁也是,不需要司机,因为轨道都是纯地下的,不可能有障碍,你不理解也没有关系。但是对于自驾车,我的感觉和翻译软件差不多糟糕。


现实世界里的可能场景是无限复杂的,驾驶时出什么状况完全不可预料。我觉得这极其糟心。不管怎么说吧,我是不喜欢AI(人工智能)这个词的


果壳:如果能重新发明一个词的话你会怎么说? 


:我不知道。我觉得自驾车(self-driving car)是可以的,不用“智能”这个词,智能不是这个领域讨论的话题。当我们说智能的时候,其中的确有一部分是实时对看到的场景进行分类;我对自驾车懂的并不太多,我知道他们用的很多技术和人类开车不同,他们会用GPS,会用激光雷达,如此等等,这意味着自驾车看到的场景和用到的信息与人类不一样。

 

我不确定它们到底在干什么,但是你可以说这的确是实时感知,对快速变化的图像进行实时分类,这是个动态而非静态的过程,这当然是智能的一部分,但绝对不是全部的智能。所以我不喜欢把智能这样的词用在这样的系统上。

 

二十世纪五六十年代那会儿,说“我们正在研究AI”是没问题的,我们是在研究它,是在尝试理解智能,但现在人们不那么说了,人们说“这是智能的”,“那是智能的”。我不喜欢这样。这是过度简化扭曲,误导原意


果壳:开车和翻译都是很难的现实问题,不过创造性的问题呢?阿法狗在围棋上打败了人类,我就感到相当震撼。 


柯洁VS阿法狗 | theguardian.com

 

:我同意,震撼(shaken)是对的词,我感到很难受,为围棋选手感到悲伤。不过,你知道有一个微软的程序能够写诗——


果壳:是的,他们居然还真的出版了。 

 

:我不知道你说“真的”是什么意思,显然这年头人们是可以出版任何东西的!这不算什么啦。但是我想说,随便写点现代诗没什么了不起,这很容易,写出来的大部分是垃圾。搞一本垃圾宣称这是诗歌这不算什么成就。这样的事情早就被做过了,我自己五十五年前就写过这样的程序。这不算啥——好吧也许五十年前可以算啥吧。


但像某些人说的那样把这个称为是计算机的创造力?这完全是荒谬,完全是无稽之谈。拥有创造力是和情绪联系在一起的。强烈的智识激情、好奇心和驱动力,愉悦感和玩耍心,乐趣、神秘、发明欲望——所有这些在今天的计算机里都找不到。什么都没有,零。

 

当然计算机是能做很多事情。二十五年前有个人曾经写过一个程序——后来我和他成了朋友——这个程序可以发现新的欧式几何定理。它是在探索几何学的新东西。但是它的做法是完全机械的,它对几何学没有任何兴趣,没在思考,没在享受,没在寻找美,没在做任何这样的事情,只是机械蛮力琐碎的探寻,把数字算到15位小数,检查点是不是在线或者圆上,这些事情对人类而言是极端困难极端无聊的。

 

如果你作为一个人来检视它产出的成千上万结果,偶尔也会发现一个优雅的定理。但是机器并不知道它的优雅,对优雅不感兴趣,对任何东西都不感兴趣。说这个和创造力有什么共通之处是很荒谬的,可是人们就是经常这么说。他们说这样的话的时候根本没有想过到底什么是创造力、什么是智能。所以我是真的讨厌说我们在用“人工智能”做事情。我们没有这种东西

 

果壳:AI最早的时代,图灵说因为我们不知道电脑有没有思考,所以我们应该看它们的思考结果来判断。现在我们有EMI(“音乐智能实验”,一个可以模仿作曲家风格创造出新音乐的程序)这样能产出类肖邦的音乐,阿法狗这样打败人类的棋手,这些算不算那种思考结果?

 

:不算,因为阿兰图灵说的是使用语言。


计算机与人工智能之父阿兰·图灵 | news.sciencenet.cn

 

果壳:所以语言是人类思考的核心? 


语言代表着概念,日常的词语和句子都对应着我们心中的概念,是给概念上标签的方式。当然不是所有的概念都有标签,但很多都有,我们使用语言是为了外化这些概念。这才是图灵所说的东西。当然围棋也对应着概念,这个概念让阿法狗能够下围棋,但这不是关于整个世界的,这只是一个极小极小的微缩世界。

 

至于EMI,我写过很多东西,做过很多讲座——


果壳:啊我读过《如聆巴赫》。 

 

:那个是一个缩写版的文章,我写了大概40页的东西,被缩到了10页左右。我忘了是不是我自己缩写的,快20年前了。很不幸,它没能完全概括我想说的东西。

 

我觉得EMI是个骗子。它产出的大部分东西都很明显是从别的作曲家那里借来的。你越是熟悉那些作曲家的作品,就越能看出来它只是拿来片段然后放在一起。这和创造音乐没有任何关系,是零,也和人类与音乐的关系毫无相似之处。它只是一个流于表面的模仿而已,这就像是那个三字母游戏。

 

你知道这个游戏吗?就是你找一篇文章,比如林肯的葛底斯堡演讲,是什么文章无关紧要。然后你统计一下这篇文章里三字母组合的出现频率,比如AAA没有出现过,THE就出现了好几次,或者HE空格,空格也算一个字母,这样汇聚成一个频率表。然后你找两个字母,我一般是随机的,在表格里查下一个字母是啥。比如说开头的字母是TH,那么你就查一下THA、THB、THC……一直到TH逗号、TH句号和TH空格的频率,然后根据这些频率来随机选择第三个字母。最大的概率也许是THE,但你并不总是能选择它,也许这一次你选的是THR。那么,新的双字母就是HR,再去表格里查HRA、HRB、HRC……诸如此类。


果壳:这就是一个马尔柯夫链了。

 

:对,就叫这个。你用这样的方式创造出一篇新的文本,然后看看它长啥样。它和原来的文本会有很大的相通之处。你也可以不用三字母,而是用四字母、五字母或者更多。甚至可以把一整本书都作为源文本,统计里面的频率,创作出新的人造文本。粗看起来,它在局部上会很像是原来的作者写的东西,可能连着几个词都很正常,特别是当你用四字母或者五字母来生成的时候;但是它根本没有任何含义,全局而言它是垃圾。这个点子是大概70年前被发明的,已经被充分地研究过了。当然这样做出来的东西很好玩,本质上EMI做的也是这个

 

但它做这样事情的时候并不智能,并不懂音乐。这并不是对作曲家的威胁,只是一个小玩具能让计算机快速地把音乐小片段拼合在一起。其产物有时候听起来还有点说服力,可是这和创造音乐没有关系,和理解音乐没有关系,和任何事情都没有关系,空无一物然而正是这种东西在被不断吹捧成人类级别的成就。

 

戴维·柯普(David Cope)写出的程序EMI能模仿巴赫的风格 | artsites.ucsc.edu


果壳:但是有没有可能沿着这条路线开发出一种不同于人类智能的东西呢?比如阿法狗是不是发现了一些人类没有看到的关于围棋的深刻见解?

 

:如果有,它必须是情绪化的。情绪是智能的核心,没有它就没有智能。当然你能看出来,我现在所说的这些都是非常情绪化的,这没错,我们说的一切都充满了情绪,被情绪所驱动,智力就是这个样子的

 

阿法狗确实做到了一些惊人的事情,我丝毫不懂围棋所以没有办法评论,但显然它找到了某些模式,是人类从来没有注意过的,而且运用这些模式下了一手好棋。我不知道说它“理解”围棋算不算用对了词,因为理解是个很难讲的概念,但至少它肯定是找到了关于围棋的一些事实,一些强有力的不为人知的事实

 

我觉得这很了不起,也很让我沮丧和担忧,但我不觉得这是一条通向非人智慧之路。如果在很久以后的未来你能造出个电脑程序,可以和人类沟通交流想法,那是一回事,但下围棋不是交流想法,只是玩游戏而已。不,它甚至都不是在玩游戏,只是在操纵符号,它不知道这是个游戏,不知道游戏是什么东西。

 

但如果将来人们能开发出和人对话的程序——严肃地讨论观点和想法,不是聊天机器人那种,不是问“siri附近有什么印度餐馆”。我非常不喜欢现在这些东西,绝对不会用它们,虽然我知道有很多人喜欢这样的小软件。


总之如果我们将来真的有一个系统能和人对话,那么它必须要知道关于人类生活的几乎一切东西。需要懂得人类的情绪,自己必须拥有情绪,必须有担心、恐惧、不安感,如此等等,就像人一样。这是获得智能系统的唯一途径,而我们距离它的实现还很远


图虫创意

 

果壳:没有捷径吗?也许我们可以复制人类体验的一部分,而不用把所有可能的体验教给机器?


:我觉得没有,不过我不知道是怎样的捷径。一部分体验,一丁点还是可能的,围棋不也是一部分嘛


果壳:所以机器面临的难题是什么呢? 

 

:情绪是伴随着一套内置的目标而产生的,我们谈论的对象必须要追求这些目标,需要能快速判断出它做的事情对于这些目标而言是好事还是坏事,而情绪就诞生于这种对好坏区别的感知

 

果壳:不过我们确实是在给遗传算法设置目标呀,这不够吗? 


:但这些目标和它的存活、它的福利之间没有产生联系。它没有在试图保护自己,没有试图过更好的生活。情绪来自斗争,为了生存的斗争现在并没有这样的东西


果壳:这听起来是适者生存,要模仿演化的路线。 

 

电脑可以演化吗?当然可以,全世界成百上千万的电脑都在不断改变,比起50年前大不相同了,这也算是一种自然选择。自然选择就是世界上有不同的东西在竞争,被环境所选择,而这个案例里环境是人类,但没有关系,人类也是世界的一部分。所以电脑当然在走一条演化之路。

 

但是它们没有繁殖,没有遗传信息重组,这种演化方式和活着的生物是不一样的。乐器也在演化,但它们没有繁殖,只是被人造出来。电脑也是如此。

 

如果电脑变成了自律的实体,开始自己繁殖,相互竞争求生存,那么这里发生的事情就更加接近生物的演化。这时,你就会有情绪产生了。情绪是来自于保护自己、保护在乎的实体,保护家人和朋友,在电脑拥有朋友之前,它们是不会有情绪的。而现在的电脑没有朋友,不会喜欢谁、讨厌谁。这不是它们世界的一部分。必须要有保护,关怀和共情,需要能认同他人的目标、视之为自己的目标


我们距离这一切,还很远很远。


作者Ent与侯世达的合影 | Ent


作者:Ent

编辑:Edan



本文来自果壳,未经授权不得转载.如有需要请联系sns@guokr.com

(欢迎转发到朋友圈~)

果壳

ID:Guokr42

整天不知道在科普些啥玩意儿的果壳

我觉得你应该关注一下

为啥这样的二维码也能扫?

扫码发送【二维码】告诉你原理~

喜欢就点个“好看”呗~↘

阅读39922
人工智能 智能 
举报0
关注果壳网微信号:guokr42

用微信扫描二维码即可关注
声明

1、头条易读遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2、本文内容来自“果壳网”微信公众号,文章版权归果壳网公众号所有。

评论
更多

文章来自于公众号:

果壳网

微信号:guokr42

邮箱qunxueyuan#163.com(将#换成@)
微信编辑器
免责声明
www.weixinyidu.com   免责声明
版权声明:本站收录微信公众号和微信文章内容全部来自于网络,仅供个人学习、研究或者欣赏使用。版权归原作者所有。禁止一切商业用途。其中内容并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现头条易读网站上有侵犯您的知识产权的内容,请与我们联系,我们会及时修改或删除。
本站声明:本站与腾讯微信、微信公众平台无任何关联,非腾讯微信官方网站。