AI 资深专家:我为什么对机器学习“粉转黑”?

综合技术 2018-05-24 阅读原文

编者按:人工智能的研究是当前科技领域的一大热点,任何有关机器学习的新闻都能够吸引人们足够的关注。但人工智能领域一位科技先驱和资深专家Judea Pearl却对这一领域的进步提出了尖锐的批评。Judea Pearl在上世纪曾帮助人工智能习得了概率,使其能够做出关联性判断,但遗憾的是,如今人工智能仍然无法计算因果关系。访谈中,Judea Pearl还就人工智能未来的发展、如何判定其具有自由意志等问题做出了回应。本文作者 KEVIN HARTNETT ,原文题目 How a Pioneer of Machine Learning Became One of Its Sharpest Critics

Judea Pearl对人工智能的发展贡献良多。在20世纪80年代,在他的努力之下,机器掌握了依据概率进行推理的能力。现在他是该领域最尖锐的批评者之一。在他的新书《 The Book of Why: The New Science of Cause and Effect 》中,他认为人工智能由于不完全理解智力的本质而陷入瓶颈。

三十年前,人工智能研究面临的一个主要挑战就是编程机器如何将潜在的原因与一系列可观察的条件联系起来。Pearl想出了一种名为Bayesian网络的方法。Bayesian网络使机器更学习有了实践性意义,比如说有一个病人刚从非洲回来,发烧而且全身疼痛,那机器可能会得出他患有疟疾。2011年,Pearl获得了计算机科学领域的最高荣誉——图灵奖,主要在于表彰他这项工作的成就。

人工智能发展道路上的瓶颈

但正如Pearl所见,人工智能领域目前陷入了概率关联的瓶颈之中。如今,新闻吹嘘着机器学习和神经网络的最新突破,我们读到的文章也是关于电脑掌握围棋和学会驾驶汽车的。Pearl对此则颇为淡定,他认为如今的人工智能技术只是在前一代人成果的基础上进行的微微升级——在一组大数据中发现隐藏的规律——罢了。他最近说:“深度学习领域所有令人印象深刻的成就都只是曲线拟合而已。”

现年81岁的Pearl在他的新书中阐述了智能机器如何思考的愿景。他认为,关键在于用因果推理来取代关联推理。机器需要的是疟疾引起发烧的原因,而不是仅仅将发烧和疟疾联系起来的能力。一旦这种因果关系框架确立下来,机器就有可能提出反事实的问题——在某种外界干涉条件下因果关系会如何变化——Pearl认为这是科学思想的基石。Pearl还提出了一种正式的语言,让这种想法成为可能——这是21世纪版本的Bayesian框架,允许机器在概率的基础上进行思考。

Pearl认为,因果推理可以使机器拥有人类水平的智力。他解释说,它们能够更有效地与人类交流,甚至可以成为具有自由意志和做恶能力的道德实体。最近,在San Diego的一次会议上,《Quanta Magazine》对Pearl通过电话进行了访谈。以下是经过编辑和精简的对话。

Kevin Hartnett:为什么给你的新书起这么一个名字?

Judea Pearl:它总结了我在过去25年里一直在做的关于因果关系的工作,它是我们如何应对那些内在原因问题的答案。奇怪的是,这些问题已经被科学抛弃了。所以我这么做是为了弥补那些忽视的。

Hartnett:科学已经抛弃了因果关系,听起来非常搞笑,这难道不是科学研究的全部内容吗?

Pearl:当然,但是你俨然已经无法在那些方程式中看到它了。代数的语言是对称的,如果x告诉了我们y,那么y也会告诉我们x,我讲的是确定性关系。例如,风暴即将来临,气压计一定是下降的。

Hartnett:几十年前,你在人工智能领域取得了成功。你不如说一说当时人工智能发展和研究的情况?

Pearl:20世纪80年代初我们遇到的问题属于预测性或诊断性问题。医生会从病人身上观察一系列症状,并希望得出病人患疟疾或其他疾病的可能性。我们想要弄出一套自动化系统以代替专业人员——无论是医生,矿产资源管理人员,还是其他一些付费专家。所以在这一点上,我想到了一个在概率上可行的方法。

不过,麻烦的一点在于,计算标准概率需要指数空间和指数时间,所以我只好想出了一个叫Bayesian网络的方案。

Hartnett:然而,在你的新书中,你把自己描述为当今人工智能社区的一个“反叛者”,这又是什么情况呢?

Pearl:这么说吧,当我们开发出的工具使机器能够以不确定性为基础进行推理时,我就转而去追寻另一项更具挑战性的任务了——因果推理。我的许多同事仍然在研究不确定性推理。有一些研究小组继续研究诊断性问题,而不担心问题的因果关系。他们想要的只是预测和诊断准确。

我可以举个例子——我们今天看到的所有机器学习的工作都是在诊断模型中进行的,比如把物体标记为“猫”或“老虎”。“他们不关心外部情况变化,他们只是想要识别出一个物体并预测它将如何随着时间的推移而变化。

当我开发出了强大的预测工具后,我觉得这只是人类智慧的冰山一角。如果我们想让机器有着更高级别的认识能力,我们就必须加入因果模型,关联模型还不够。

Hartnett:大家都对人工智能抱有兴奋感,但你没有。

Pearl:就像我研究深度学习所做的一样,我发现它们都只停留在关联的层次上。可以说,所有令人印象深刻的深刻学习成就都只是因为曲线拟合,虽然这么说有点亵渎的意味。从数学层次的角度来看,无论你如何巧妙地操作数据,以及在操作的过程中读到了什么数据,哪怕再复杂,也仍然是只是曲线拟合的练习。

曲线拟合和因果关系

Hartnett:看样子你对机器学习并不怎么感冒。

Pearl:不,事实恰恰相反,我相当感冒,因为我们没有预料到有那么多问题可以通过纯曲线拟合来解决。事实证明它们确实可以通过拟合来解决。但你要明白,我所谈及的是未来——接下来会发生什么?你需要看看有哪个机器人科学家正在计划某项实验,并为悬而未决的科学问题找到新的答案。这是下一步。我们还想跟一个有意义的机器——有意义的机器是说它能够跟我们的直觉相匹配——进行一些交流。如果你剥夺了机器人对因果的直觉,你就永远不会获得什么有意义的交流。这样一来机器人也不可能像你或我一样,说“我本该做得更好的”。因此,我们其实是失去了一个重要的沟通渠道。

Hartnett:让机器能够跟我们一样有着因果推论能力,这一研究成果未来的前景如何?

Pearl:我们必须给机器匹配一个环境模型,即让它们将周围环境纳入考量范围。如果一台机器无法去识别和依托现实,你就不能指望机器在实际应用中有任何智能的行为。所以人们必须可以将现实的模型进行编程并嵌入机器,这一步大约会在十年之内实现。

下一步将是机器自行假设这些模型,并根据经验证据来验证和完善它们。这一过程有点儿像科学认识进步的轨迹——我们从地心说开始,从行星轨道是远行开始,到最后认识到日心说和行星轨道是椭圆的。

然后机器人们也会相互交流,并将这个假想的世界,这个狂野的世界“转译”为隐喻的模型。

Hartnett:对你你的这种设想,如今的人工智能从业者有什么反馈吗?

Pearl:人工智能界目前四分五裂着。首先,有一些人正陶醉在机器学习和深度学习以及神经网络的成功之中,以为实现了天大的成就。他们不明白我在说什么。他们还想继续沿着曲线拟合的路子走下去。但是,当你和那些除了统计学习以外的人工智能领域从业者交谈时,他们立刻就能明白问题之所在。在过去的两个月里,我看了好几篇关于机器学习的局限性的文章。

Hartnett:你是说机器学习领域其实是有偏离如今进展的新的发展趋势了吗?

Pearl:不不不,不能说是什么趋势,应该说是一种反省吧,一种人真的自我反省,我们需要扪心自问——我们在往何处去?我们下一步该怎么走?

Hartnett:没错,这正是我最不想问你的事。

自由意志和作恶能力

Pearl:你知道吗,我倒是很高兴你没问我关于自由意志的的事儿。

Hartnett:在这种情况下,你认为自由意志是什么?

Pearl:未来有自由意志的机器人一定会出现的,这一点毋庸置疑。我们必须了解如何对它们进行编程,以及从它们那里获得什么。出于某种原因,在进化过程中,这种自由意志被发觉在计算科学层面上是可取的。

Hartnett:哦?这怎么说?

Pearl:这么说吧,你本人是有自由意志的,我们也是在进化中有了使这种感觉的。显然,这种感觉提供了一些计算功能。

Hartnett:当机器人有自由意志的时候,我们能不能立即辨别出来?或者说,它们的自主意愿会不会表现的非常明显?

Pearl:如果说机器人们开始互相交流,并表示说“你本可以做得更好的”,那么这就是自由意志的一个典型例证。如果一组运动机器人——比如说机器人足球队——它们之间开始用这种语言进行交流的时候,我们就会知道他们已经有属于自己的意志存在了,比如说什么,“你当时应该把球传给我的,我都等了你好久了,结果你并没有这么做!”“你本该”这种措辞表明了不管情况多么紧急,你都能掌握住局面,但是实际上你却没有。所以第一个证据是交流用语,第二个证据是一场踢得蛮出色的足球赛。

Hartnett:那既然你都说到了自由意志的问题了,那我还是觉得得问问你关于人工智能有“作恶能力”的问题,我们通常认为这是取决于你做出选择的能力。所以,什么是邪恶?

Pearl:邪恶是一种信念,我们一般认为这个时候你的贪婪或者说不满已经取代了社会的所有行为及道德规范。比如说一个人的思维里可能会有一个小人在耳边说,“你饿了,所以你可以做任何事,只要能填饱肚子就行”,但你的思维里还会有其他的小人,它们在你的耳边不断地提醒你,引导你遵循社会的道德及行为规范,其中的一个小人名叫“同情”。所以,当你把你的贪婪或不满提升到社会标准之上时,那就是邪恶了。

Hartnett:那么,当人工智能有能力去作恶时,我们该怎么知道呢?

Pearl:有一些软件程序——这些程序是我们在过去学习的基础上编制的、用来规范或者期望机器人的行为的——如果我们发现机器人一而再、再而三地忽略或者违反它们时,恐怕就可以判定它们拥有作恶的能力了。

编译组出品,编辑:郝鹏程

36氪

责编内容by:36氪阅读原文】。感谢您的支持!

您可能感兴趣的

AI+新零售系列报道(四):改变海底捞老鼠问题,人做不到,得靠人工智能丨智能科技... 原标题:AI+新零售系列报道(四):改变海底捞老鼠问题,人做不到,得靠人工智能丨智能科技 探寻商业本质 预见商业未来 品途解读:从正餐快餐化,再到餐饮零售化无疑是一个趋势。无论B端商家希望降本提效,还是C端用户追求更好体验,都...
Better Insight into DSP: 10 Applications of Convol... This article presents an overview of various applications which exploit convolution, an advanced signal operation. Bac...
World Cup 2018: 5 Game Changing Technologies in Fo... Football is arguably the most popular sport in the world. According to FIFA.com, a total of 3.2 billion people tu...
红象云腾Redoop Enterprise CRH V5.0的五大过人之处... Hadoop,这个由Apache基金会所开发的分布式系统基础架构近些年来得益于其自身在数据提取、变形和加载(ETL)方面上的天然优势,得以在大数据处理应用中得到广泛的应用,但Hadoop毕竟是成长于国外的环境和土壤中,在国内应用多少会有些“...
关于AI,传统行业CEO必须知道这5件事 在 AI 时代,您和您所有的竞争对手都同病相怜,但它们已经不再是主要问题了 编者按:本文由新智元编译,来源:shellypalmer.com,作者:Shelly Palmer,编译:熊笑;36氪经授权发布。 如果您是一家企...