如今人工智能(AI)的焦点与90年代时期时有很大的区别。20年前,人工智能关注的重点在于基于逻辑的AI,通常属于知识表示,即KR(Knowledge Representation),而今天的关注重点在于机器学习和统计算法。这种转变对AI很有帮助,因为机器学习和统计为解决特定问题(比如图像识别)提供了有效的算法,而KR从来没有达到这种效果。但我认为钟摆转过头了,丢失了一些有价值的东西。
知识表示并不是一个单一的内容。如果要完全概述知识表示,我会集中在它“应用哲学”方面——常识性概念的逻辑表示,将重点放在明确的语义基础上。
我用一则个人故事来说明。这个故事开始于2009年我在Journal of Philosophical Logic上发表的一篇论文,然后在斯坦福大学和杜克大学做的研究项目,之后做一家名为Timeful的公司,最后以Timeful被谷歌收购为故事结尾。这个故事的要点是,原始期刊论文与这家公司最终获得成功之间有着直接的联系。
这篇期刊论文名为Logics of Intention and the Database Perspective。在此之前,出现了一篇虽然简短但重要的论文,关于意图(intention)逻辑AI,由Cohen和Levesque提出的创意,论文名为Intention is Choice + Commitment。这篇文献受不太正式的理性代理哲学文献启发,比如Bratman的Intentions, Plans, and Practical Reason。我自己的论文灵感来自于Cohen和Levesque的论文,但是质疑了他们的基础理念,并提出了一种替代方法。虽然我的方法以计算为动力(如标题所示),但论点都是纯理论和纯哲学的。
紧随这篇期刊论文之后,我寻找一些可供继续研究的资金,就像教授经常做的那样。而资助者倾向于做的是,他们要求我纳入一些这项工作的潜在应用。然后发生了几件事。第一是我一直在处理意图——在我的个人日程表中。第二是这些是非常特殊的意图——硬性事件和会议。第三是我的个人日程表并不与我祖父的完全不同,显示人们的时间需求如何改变,以及科技如何进步,这很奇怪。最终引发了一个明显的问题:如果我用更丰富灵活的意图类型来改进日程表,而且日程表具备处理结果复杂性的智能,将会发生什么?
为更好了解这一点,值得对期刊论文中的理念进一步讨论。所提出的数据库视角在附图中,附图可以想象成是用来信念修正(belief revision)的AGM策划的泛化,后者被限制在图中“信念(belief)”部分。在AGM框架中,智能数据库不仅负责存储计划者(planner)的信念,还负责保持它们的一致性。在强化的框架中有两类数据库,一个存储信念(beliefs),一个存储意图(intentions),不仅负责维持每类数据库的一致性,还维持它们之间的一致性。在期刊论文中我提出了主要一致性条件,并在随后的论文中,与Icard和Pacuit给出了它的逻辑形式化,这是AGM框架的一种保守延伸。从这个观点深入更多的技术细节并不合适,它们很多确实与此无关。但重要的是,意图数据库在agent中具有智能功能。
现在回到故事主线上来,赞助者被说服了,我们开始了一个小项目来探讨这些想法。接下来的两年里很有趣,但与这个故事并不太相关,除了:这个项目很快由一位新的博士学位毕业生Jacob Bank领导;同时我的老朋友和同事Daniel Ariely也参与了进来,他是著名的经济学家;在2013年初的时候,我们决定创办一家公司,最后称为Timeful。我们的共同研究并没有驱动我们太多,因为意识到在社会中时间管理问题多么刻不容缓,以及目前处理此问题的工具是多么的不适用。
当2014年7月Timeful 1.0问世时,用户和新闻媒体的反应是十分赞许的。在第一个月中收到了2000封用户邮件,其中大多数都是情绪化的。很明显已经触动了Timeful的神经,即使该产品仍然有很长的路要走。很快,这家公司吸引了主要参与者的兴趣,最终被谷歌收购。如果不是KR,这一切都不可能发生,下面就是原因:
Timeful开发了个人时间助理(PTA),其作用是帮助管理时间,资源是最稀缺也是最难管理的。这种方法建立在三个主要支柱上。第一,它允许用户自然地在系统中表示占用时间的一切事物。第二,机器学习和其他算法应用于本质上难以优化的问题。第三个支柱是行为科学,这意味着制作一个环境来巧妙帮助校正我们都会犯的时间管理错误(比如时间拖延和对未来可用性过高评估)。其中,我最希望把重点放在讲解第一支柱上;它是三个支柱中最基本的一个,并且也是直接基于KR的支柱。
考虑所有会占用我们时间的事物:会议、活动、差事、项目、爱好、家庭、健康维护、运动、或用于思考和学习的时间。它们表面上都是不同的,并且位于不同的运用场景(会议和活动列在日程表中,差事列在待办事项中,项目列在项目管理系统中)或只是停留在脑海中。它们都会占用同样的资源——时间——如果你要做出明智的权衡,它们应该列在同一个地方。事实上,它们都是意图(intentions),尽管有不同的属性。根据智能意图数据的设想,第一个基本判断是开发一个数据模型,足以涵盖所有的意图类型。结果这个数据模型被叫做意图对象(IO)。IO是一个特征向量,包括文字说明,时间属性(它什么时候可以执行,什么时候应该执行,持续时间——都由不同程度的精度来指明),执行意图的条件(比如位置信息或者需要的工具),以及其他属性类型。
意图对象成为了这个系统的基础,所有东西——包括算法调度和行为轻推——都依靠于它们。当然,用户不会呈现成特征向量,而是与几个预打包的意图类放在一起。截至2015年4月,一个有四类:事件(events,比如会议);任务(tasks,比如拨打电话);习惯(habits,比如一周慢跑三次);和项目(projects,比如撰写长篇报告)。但是在底层,系统将它们分解成特征向量。
知识表示不仅仅是Timeful的源动力,也是它数据模型的灵感来源。在进行特定产品决策时,小组多次从哲学文献中寻找指引。要充分表述这点很困难,下面是两个具体的例子。
第一个例子,必须进行适度标记。 所有待办事项列表都允许你检查完成的任务。Timeful也有这个功能,但困扰我们的是,任务有标记但是事件没有,尽管他们都是IO。这与其说是审美不对称,倒不如说是底层原则,以及这些原则应该如何应用于其他IO,比如习惯和项目。然后我们又回到根源,并意识到必须跟踪用户的承诺(commitments)。如果有一个原则受到哲学文献同意,那么它就是意图包含承诺(反映在Cohen和Levesque的论文标题)。当我打算做一件事情时,我并不只是记下它;我决心跟踪它并完成它。从这个角度看,我们意识到时间不需要跟踪;一个会议被安排它就完成了(也有例外,比如如果会议可能有未达成的目标,但这些由与会议相关的独立任务来完成)。其他所有的意图类型都需要明确监控,因此,我们最后为所有的IO附上标记,除了事件。
当你建立一个产品时,你希望它有内在美。
第二个例子,必须处理意图的时间范围。 大多数待办事项系统都是“羞耻名单”——你记下来但是从来没有做的事情。我们希望避免这种情况,并且通过严格的时间范围界定来实现。这个早期的决定追溯到文献中一个小型的辩论。在Cohen和Levesque的形式主义中,类似于“我打算读这本书”这种语句是基本概念。但是在我的期刊论文中,我认为这是有问题的,它可以追溯到承诺问题。如果我要承诺某个没有固定时间的意图,我到底是在向什么承诺,以及它是如何真正驱动行动?(如果你家里有一位青少年,你知道我的意思。)相反,我认为,这基本结构应该是类似于“我打算在周六下午2点至4点读书”这样的语句。然后你可以用存在量化来松弛,并给出诸如“我打算周末花两到三个小时来读书”这样的意图。但是你总是明确时间范围。Timeful采用来了这种理念;与用户的隐性契约是,她应该认真对待她的意图,作为回报,该系统将帮助她实现这些意图,通过将它们列入她的日程表并促进她完成(应用启动时的标语是“get it scheduled, get it done”)。因此,每项任务都需要一个“完成(do on)”或“预计(do by)”日期。然后,任务会出现在时间格中,旁边是事件。(在“do by”情况下,系统挑选个截止日期之前的时间,用户可以根据需要进行修改。事实上,如果后来某个时间替换了任务,系统会自动将任务移动。)同样的逻辑也适用于习惯和项目,以更复杂的方式。
Timeful的故事是皆大欢喜的,很多部分都与KR相关。一个人在没有KR或哲学的情况下能够有相同的见解吗?可能吧,但事实上没人能做到,我认为这并不是意外情况。当你建立一个产品时,你希望它有内在美。我这么说的意思是,通常情况下,当你着手设计一个伟大的用户体验,你还没有什么能做好或不好的概念词汇,你在与现有概念框架和数据模型抗衡。如果内部结构不正确,你将永远得不到真正有美感的用户体验。哲学与KR鼓励你严格思考概念架构,并在你设计特定功能时提供指导。
这并没有减少机器学习和统计的重要性。但是机器学习需要特征空间,而且统计需要事件空间。即使是最热门的深度学习爱好者也不会认为那些总是会产生机械姬,独立于人类洞察力(除非你为谷歌工作,并且只对catsa感兴趣)。
这是否意味着每一个哲学难题和逻辑谜题有着直接的现实意义?当然不是。但是,如果你正在设计一辆车,你确实需要轮子,所以你不需要重新发明轮子,特别是如果你发明的轮子不那么圆的时候。
我们有理由感到乐观。有迹象表明,研究者越来越对“机器学习和统计将解决所有问题”的观点持怀疑态度,例如,最近AAAI讨论会汇集了知识表示、机器学习、语言学和神经科学领域的领先研究人员,来讨论这些领域之间的互动。我的感觉是钟摆已经开始轻微往回摆动了,如果我们作为一个社区来鼓励这趋势,AI会变得更好。
参考文献
关于作者: Yoav Shoham (shoham@stanford.edu)是谷歌的首席科学家、斯坦福的教授(退休)。
原文地址: Why Knowledge Representation Matters (译者/刘翔宇 审校/赵屹华、刘帝伟 责编/仲浩)
译者介绍: 刘翔宇,中通软开发工程师,关注机器学习、神经网络、模式识别。