机器学习最近成为了媒体间的热门词汇。近日,《科学》杂志发表一了篇名为Human-level concept learning through probabilistic program induction 的封面文章。紧接着,《自然》杂志也将曾击败欧洲冠军的AlphaGo搬上了封面。于是,关于人工智能未来潜力的讨论迅速变得火热——诸如“机器可以像人一样学习吗?”、“人工智能会超越人类智能吗?”这样的问题层出不穷。为了回答此类问题,InfoQ近日采访了 瑞士人工智能实验室(IDSIA) 的研发主任 Jürgen Schmidhuber教授 。Schmidhuber教授就深度学习和人工智能领域最近的发展趋势方面的问题进行了解答。
Schmidhuber:深度学习也不过是旧瓶装新酒。它主要是关于含多隐层的深度神经网络。利用现在的高性能计算机,这样的网络带来了模式识别和机器学习方面的革命。深度学习这一概念首先由Dechter在1986年引入到机器学习领域,然后由Aizenberg等在2000年引入到人工神经网络中。
深度学习之父是乌克兰的数学家Ivakhnenko。在1965年,他(与Lapa)发表了第一篇有关深度前向多层感知器的 学习算法 。在1971年,Ivakhnenko已经描述了一个现在看来仍然很深的八层网络,并使用了当前仍然十分流行的方法对网络进行训练。考虑到当时计算机性能,他的想法实在是太超前了。更多深度学习的历史可以参考 我的综述(带888篇参考文献) 和 Scholarpedia的词条 。
Schmidhuber:这篇文章非常有趣。然而,一个算法通过标准的迁移学习也可以达到one-shot learning的效果。首先,基于多个不同的可视化训练集来慢慢训练一个深度神经网络,使得其头十层变成一个相当通用的视觉与处理器。锁定这些层后,再对第11层以新图片进行高速度的重新训练。这种方法多年前已经十分有效。
Schmidhuber:我之前的博士后Marcus Hutter(教授)在2002年所发明的AIXI模型已经包含了用于机器学习的最佳贝叶斯方法。任何计算问题都可以被变换为一个效用函数最大化的问题。AIXI采用了Solomonoff的通用归纳的概念。这一概念中使用了所有可计算概率分布的算法概率函数M。如果真实世界对于一些增强学习agent的行为反馈的概率是可计算的(没有任何直接证据表明该假设不成立),agent就可以把真实但未知的分布替换为M,来预测未来的输入和效益。Agent的确可以通过选择那些能够最大化M效益的行为序列,来优化自己的行为。这可以称为是AI中的终极方法——它已经达到了理论上的极限。然而,AIXI中的“最优”忽略了计算时间这一关键因素。这就是为什么我们现在要使用那些基于梯度下降等本地搜索技术的深度学习方法的原因。这些方法虽然没有那么通用,但更加实用、便捷。
Schmidhuber:我的聊天对象对我来说看起来像人吗?那么,它已经通过了我个人的图灵测试。正如Weizenbaum几十年前所言,该测试的主要问题是它太主观了。一些人太容易上当了!
Schmidhuber:对于Google DeepMind的成功,我非常开心。其中一部分原因也在于我的很多学生都供职于该公司,并参与到了这个项目中。DeepMind团队的四个初始成员中,有两个都是我的学生。而AI部门的首批博士也都来自IDSIA实验室——其中一个成为了联合创始人,另一个为首批员工。而曾经在2010年Atari-Go上与我联合发表文章的博士生等也在后来加入到了DeepMind团队。
围棋是一个马尔科夫假设成立的棋盘游戏:理论上来说,当前输入(棋盘的状态)已经包含了决定本次最佳下子的所有信息(完全不需要考虑之前的状态历史)。也即是说,这个游戏可以通过传统的增强学习(RL)来进行处理。这就跟IBM的Tesauro在1994年赢象棋冠军的情况有点像。然而,今天的成功更多的要获益于运算速度比之前快很多倍的计算机。在过去几年,围棋算法已经大大改进了。为了了解一个好的围棋选手,DeepMind系统会综合采用监督学习和基于蒙特卡洛树搜索的增强学习等若干种传统方法。在不久的将来,人工智能系统和人类进行围棋方面的对垒将会变得非常有趣。
然而,不幸的是,马尔科夫条件在现实中未必总是满足。这就是为什么存在于部分可观察环境中的RL机器人的通用人工智能(Artificial General Intelligence,AGI)需要更加巧妙的学习算法。像了解更多关于深度RL的历史,可以参考 我的综述第六章 。
Schmidhuber:我们对于深度学习在医疗方面的应用非常感兴趣。实际上,在2012年,我们IDSIA的团队(Dan Ciresan为第一作者)已经在一个医用图像比赛中获得冠军。而且,看到很多公司现在开始利用深度学习进行医疗图像等类似的应用,我也非常开心。全球每年要花费超过10%的GDP(每年超过7万亿)进行医疗服务。其中,很多都花费在了昂贵的专家诊断上了。即使是使得该过程的其中一部分自动化,也可以节约上亿的资金,并给那些原本负担不起的病人提供看病的机会。说道这里要提一下,医院最优价值的东西其实是他们的医疗数据。这就是为什么IBM要给收集这些数据的一个公司提供上亿的资金支持。
Schmidhuber:相比于互联网(IoH),物联网(IoT)由于包含了更多的机器,要更大一些。一些机器也的确给其他机器提供了“AI即服务”。广告使得IoH更有利可图,但IoT的商业模型看起来却没那么明显。
Schmidhuber:我认为,不仅仅是未来,就算过去都是无监督学习的——在观察中自我学习规则、通过预测编码等进行自适应数据压缩等等。大概在20多年前,我发表了在这方面的第一篇文章。该文章后来引领我在1991年提出了能够处理上百个隐计算层的 深度学习算法 。
Schmidhuber:现在还不行,但未来可能很快可以。可以参看有关“learning to think”的 这篇报道 。无监督数据压缩(就像上一个问题中提到的)是基于RNN的自适应Agent的核心组件。该Agent利用基于RNN的预测世界模型来更好的规划和达到目标。我们在1990年开始这方面的工作,并取得了很大进展。
Schmidhuber:人工智能的极限就是计算的极限。在1931年,理论计算科学的创始人Kurt Gödel就提出了计算的极限——不完备定理。Gödel表示,任何一个相容的数学形式化理论中,只要它强到足以蕴涵皮亚诺算术公理,就可以在其中构造在体系中既不能证明也不能否证的命题。
Schmidhuber:人类应该做那些完全不难而又有趣的工作,而机器完成除此以外的所有工作。
感谢徐涵在本文撰写过程中给予的大力支持。