当前位置: 新豪天地登录网址 > www.3559.com > 正文

人工智能已到瓶颈,人工智能发展历史

时间:2019-12-26 05:35来源:www.3559.com
本文约3800字,建议阅读10 分钟。 近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能在技术上已经触及天花板。从长远来看

本文约3800字,建议阅读10 分钟。

近日,中科院院士、清华大学人工智能研究院院长张钹教授接受记者采访时认为,目前基于深度学习的人工智能在技术上已经触及天花板。从长远来看,必须得走人类智能这条路,最终要发展人机协同,人类和机器和谐共处的世界。未来需要建立可解释、鲁棒性的人工智能理论和方法,发展安全、可靠和可信的人工智能技术。

工作中,需要弄清楚这三者之间的关系,不妨做个简单的梳理

www.3559.com 1

针对深度学习的技术瓶颈,清华大学张钹等多位院士、教授给出了自己的研究思路。

在Alphago与韩国围棋选手李世石对战获胜三年过后,一些迹象逐渐显现,张钹院士认为到了一个合适的时点,并接受了此次的专访。

首先何为智能(Intelligence),智能有多方面的含义,这里主要指能够做出“正确的决策”,好的决策依赖于可实操的知识,例如翻译感觉信息,并利用这些信息来做决策。

1月21日午间消息,今日,清华大学人工智能研究院知识智能研究中心成立仪式暨知识计算开放平台发布会在清华大学FIT楼举行。清华大学副校长、清华大学人工智能研究院管委会主任尤政院士,清华大学人工智能研究院院长张钹院士出席成立仪式并共同为中心揭牌。清华大学人工智能研究院常务副院长孙茂松教授主持成立仪式。

前言

深度学习目前人工智能最受关注的领域,但并不是人工智能研究的全部。张钹认为尽管产业层面还有空间,但目前基于深度学习的人工智能在技术上已经触及天花板,此前由这一技术路线带来的“奇迹”在Alphago获胜后未再出现,而且估计未来也很难继续大量出现。技术改良很难彻底解决目前阶段人工智能的根本性缺陷,而这些缺陷决定了其应用的空间被局限在特定的领域——大部分都集中在图像识别、语音识别两方面。

接下来我们来定义人工智能(Artificial intelligence),在程序员的努力下,计算机已经初具智能,即能够执行对人有用的任务,但比起人和动物还有很大差距,计算机依然无法完成大多数对人和动物来说很简单的活动,这些任务(包括感知和控制)就属于人工智能的范畴。尽管人类的大脑能够完成复杂任务,但我们并不能确切知道为什么能够完成这些任务。执行任务过程中涉及的知识开始是不明确的,但通过数据、例子和经验我们就能掌握解决这些任务的信息。如何让机器具备这类智能?学习过程就是通过已有的数据和经验来建立可操作的知识,解决未知的问题。

尤政院士在致辞中指出,成立知识中心是清华大学推进人工智能发展的重要举措,也是清华大学人工智能研究院的一个里程碑事件,希望知识中心能够更好地汇聚清华大学知识智能研究力量,开展具有世界水平的基础理论研究,服务于清华与国家的人工智能发展战略。

在CCF-GAIR大会上,来自清华、加州大学伯克利、斯坦福、哈工大等多所国内外顶级理工科院校的院士齐聚深圳,分享了自己最新的研究。虽然各自研究的细分领域有所不同,但是透过贯穿始终的技术讲演,避不开的事实是,多位院士都在或直接或间接地去“批判”深度学习算法。

同时,在张钹看来,目前全世界的企业界和部分学界对于深度学习技术的判断过于乐观,人工智能迫切需要推动到新的阶段,而这注定将会是一个漫长的过程,有赖于与数学、脑科学等结合实现底层理论的突破。

人工智能的历史

  • 1943 McCulloch和Pitts: 大脑的布尔电路模型

  • 1950 图灵机“计算机与智能”

  • 1952-1969 早期的对智能机器的热情和期望“机器能够做。。。”

  • 50年代 早期的人工智能程序,包括萨缪尔检查程序,Newell和Simon的逻辑理论家,Gelernter的几何引擎

  • 1956年 达特茅斯会议:“人工智能”被采纳

  • 1965年 Robinson提出逻辑推理的完整算法

  • 1966-74 人工智能发现计算复杂的神经网络研究几乎消失

  • 1969-79 知识系统的早期发展

  • 1980-88 专家系统开始繁荣

  • 1988-93 专家系统破产,人工智能的冬天到来

  • 1985-95 神经网络重新变得流行

  • 1988- 概率的复活;计算深度增加“中等深度的AI”:ALife,GAs,软技术

  • 1995- Agents

  • 1995- 支持向量机被提出,机器学习被分为神经网络和支持向量机两派,此后支持向量机在多个领域替代了神经网络,90年代到现在,决策树、Adaboost等机器学习算法应用在各个领域中

  • 2003- 人类级别的人工智能重新开启

  • 2006-深度学习的兴起

知识中心主任由我国知识计算领域专家、清华大学长聘教授李涓子担任。李涓子教授表示,知识中心将以促进清华和国家知识智能研究与发展为宗旨,打造具有广泛影响力的学术研究、知识计算平台与学术交流中心。

演讲中,他们再次明确指出深度学习的缺陷,进而点出,在可以预见的未来里,随着研究的推进,当下的深度学习算法将会逐步被拉下神坛。

作为中国少有的经历了两个人工智能技术阶段的研究者,张钹在过去数年鲜少接受采访,其中一个原因在于他对目前人工智能技术发展现状的估计持有部分不同看法,在时机未到之时,张钹谨慎的认为这些看法并不方便通过大众媒体进行传播,即使传播也很难获得认同。

人工智能的主要领域

  • 感知:理解视觉和语音
  • 机器学习和神经网络
  • 机器人
  • 自然语义理解
  • 推理和决策:知识表征、推理、决策

知识智能研究中心揭牌仪式上,清华大学人工智能研究院院长张钹院士(左),清华大学副校长、清华大学人工智能研究院管委会主任尤政院士(右),为李娟子教授颁发知识中心主任聘书。

不过,顺着学术界走入产业应用,会发现产业界的关注重点是在技术的落地。所谓落地,本质上就是无数应用场景的聚合。所以对于AI企业而言,对业务的探索和用恰当的技术去解决实际问题才是首当其冲的。

一、“奇迹并没有发生,按照我的估计,也不会继续大量发生”

李涓子,清华大学长聘教授,博士生导师。中国中文信息学会语言与知识计算专委会主任。研究方向为知识工程、语义Web和文本挖掘。近年来在重要国际会议和学术期刊上发表论文100余篇,编著出版《Mining User Generated Content》,《Semantic Mining in Social Networks》。主持国家自然科学基金重点课题、欧盟第七合作框架等多项国家、国际和部委项目。获得2017年北京市科技进步一等奖、2013年人工智能学会科技创新一等奖等多个奖项。

因此,深度学习存在缺陷,这一问题短期内并不会妨碍AI当下不可阻挡的发展之势,技术的局限也不意味着AI公司们将会无事可做。

经济观察报:您是如何估计和评价目前人工智能发展的现状?

董振东先生被聘任为知识中心学术顾问

www.3559.com,但阳春白雪的研究始终引领着AI产业的技术走向,也是企业盈利和产业变革的关键驱动力。

张钹:这一轮人工智能热潮是本世纪初兴起的。首先是出现在学术界。学术界过去对人工智能是冷遇的,但是多层神经网络的出现带来了一些改变,神经网络的理论在上世纪50年代就有了,但是一直处于浅层的应用状态,人们没有想到多层会带来什么新的变化。

清华大学知识计算开放平台发布,让知识为AI赋能

所以,在深度学习被过度炒热的当下,我们理应试着站在院士们的“肩膀”上,看的更远。而企业家们在脚踏实地的同时,也应当不忘仰望星空。

真正引起大家注意的就是2012年斯坦福的实验,过去实验的图像样本数最多是“万”这个级别,斯坦福用了1000万,用多层神经网络来做,结果发现在人脸、人体、猫脸三个图像类别中,这个模型的识别率大概有7%-10%的提高。

让计算机拥有大规模高质量的知识是实现人工智能的一项重要任务。知识表示、获取、推理与计算等问题,一直处于人工智能的研究核心。

尽管这已不是什么新鲜的话题,但是行业内一直没有可以解决问题的办法。本文旨在传达学术界研究者们提供的一些新思路。

这给大家非常大的震动,因为通常识别率要提高1%要做好多努力,现在只是把层数增加了,竟然发生两大变化,一个是识别率提高这么多;第二个是能处理这么大数据。这两个变化给大家非常大的鼓舞,何况在2012年之前,人工智能没有解决过实际问题。

“很多人以为现在这波深度学习掀起的浪潮已经让我们进入了新一代人工智能的时代,”张钹院士:“这种看法是错误的。”

机器学习的弊病

经济观察报:这种突破的原因是什么?

张钹院士指出,新一代人工智能指向的必须是安全可信的人工智能,深度学习技术由于数据驱动的特性,存在可解释性和鲁棒性的局限性,亟需大规模知识的支持,以实现有理解能力的人工智能,这也是清华人工智能研究院成立知识中心的初衷。

源于对“大”的误解

张钹:现在分析下来是三个原因,大家也都非常清楚了,一个大数据、一个是计算能力、一个是算法。认识到之后,一夜之间业内业外对深度学习都非常震动,然后就发生了三件历史性的事件。

张钹院士代表清华大学人工智能研究院致辞。他指出知识是人类智能的重要特征,我们已经进入后深度学习时代,让计算机拥有大规模、高质量的形式化知识,是实现安全可信人工智能的重要使命,知识表示、获取、推理与计算将是新一代人工智能研究面临的核心问题。清华大学在知识智能方面有着深厚的研究积累,清华大学人工智能研究院目标是从事人工智能基础理论与方法研究,希望通过成立知识中心,打造国际一流的知识智能创新高地,推动鲁棒可解释人工智能的跨越式发展。

当下,最常被提起的名词就是机器学习、深度学习和神经网络,用数学上集合里的概念去理解这三者之间的联系,他们之间依次是包含的关系,即机器学习包含深度学习,深度学习包含神经网络。其中,四层以上的神经网络就可以称之为深度学习,而深度学习是一种典型的机器学习。

第一件事是2015年12月,微软通过152层的深度网络,将图像识别错误率降至3.57%,低于人类的误识率5.1%;第二件事,2016年微软做的语音识别,其词错率5.9%,和专业速记员水平一样;第三件事:Alphago打败韩国围棋选手李世石。

目前,中国在知识表示、知识推理方面积累不足,从最近的相关文献看,少见中国学者在这一领域发表论文,而多样化的研究和基础性研究是人工智能探索必须的。因此,“清华大学在这个时间点成立知识中心还是非常及时的”,张钹院士说。

上世纪五十年代,神经网络这一算法结构出现,当时,它的正式名称应叫做感知机,但已经包含了输入层、隐含层和输出层这一经典的通用结构,并且随着隐含层层数的加深,对事情的描述就愈加精准。

通过人工智能,利用深度学习、大数据这两个工具,在一定条件下、一定领域内竟然能够超过人类,这三件事情给大家极大的鼓舞。

作为清华大学人工智能研究院成立的首个研究中心,李涓子教授表示,知识智能研究中心旨在:

但是,神经网络是一种以输入为导向的算法,所以优质的结果一定取决于接近“无穷”量级的数据。因而,在2000年互联网革命没有爆发之前,它一直都处在无人问津的阶段。

展开全文

1.开展理论研究。研究支持鲁棒可解释人工智能的大规模知识的表示、获取、推理与计算的基础理论和方法,尤其是原创性研究;

正如大家所知道的,互联网时代积累的大量数据和云计算带来的算力的大幅提升,极大地释放了深度学习算法的潜力,因而也让人工智能时代全面爆发,产业应用得以蓬勃发展。数据显示,2017年我国人工智能市场规模达到216.9亿元,同比增长52.8%,预计2018年市场规模将达到339亿元。

特别是对于业外的人,都认为我只要掌握了大数据,利用深度学习说不定还能搞出奇迹来,于是大家做了很多很多预测,比如在多短时间内计算机会在什么事情上能超过人。

2.构建知识平台。建设包含语言知识、常识知识、世界知识、认知知识的大规模知识图谱以及典型行业知识库,建成清华大学知识计算开放平台;

然而,随着产业应用的成熟,以及大家对真正“智能”的渴求,让算力和深度学习算法本身的局限性,显露无疑。

但实际上,在这个之后,奇迹并没有发生,按照我的估计,今后也不会大量发生。准确一点说,今后或许会在个别领域取得进展,但是不会像之前预计的那样全面开花。特别是中国市场乐观的认为“中国市场大、数据多,运用又不受限制,所以将来奇迹一定会发生在中国”。

3.促进交流合作。举办开放的、国际化的与知识智能相关的学术活动,增进学术交流;普及知识智能技术,促进产学合作。

www.3559.com 2

结果很多企业在做的时候发现,不是那么回事。从目前的情况来看效果最好的事情还是这两件:图像识别、语音识别。我看了一下,中国人工智能领域20个独角兽30个准独角兽企业,近80%都跟图像识别或者语音识别有关系。

会上,知识中心隆重发布了清华大学知识计算开放平台(THUKC),清华大学计算机系副教授刘知远对平台做了介绍,包括中英文跨语言百科知识图谱XLORE、大规模开放语言知识库OpenHowNet、科技知识挖掘平台AMiner、清华大学人工智能技术系列报告THUAITR等。

加州大学伯克利分校电子工程与计算机系教授 马毅

经济观察报:为什么会出现这样的情况?或者说在这么长时间后,我们对人工智能目前能做什么有一个清晰的认识了吗?

刘知远副教授表示,深度学习 (数据) 与知识的结合是人工智能发展的必然趋势,人工智能本身也渴求世界知识、常识知识等知识智能的支撑。

“老百姓概念里的‘大数据’和我们所认为的大数据是完全不一样的,就拿图像处理来说,数十亿的数据量看似量级很高,但对我们来说,它其实是‘小样本’。因为真正能够训练出好的模型的数据量,应当是趋于无穷的,所以即便是拥有了大量数据去训练模型,和理想的智能模型之间,也有着本质的差别。”从算法性质出发,加州大学伯克利分校电子工程与计算机系教授马毅也点出了当下这项火热技术的局限性。

张钹:人工智能在围棋上战胜人类后产生了这种恐慌,“大师才能做的事,人工智能居然能做,我的工作这么平凡,肯定会被机器所替代”。这里需要考虑一下它的局限性,我一直在各种各样的会上谈到不要过于乐观。

刘知远告诉新智元,目前平台以清华团队为主,未来希望汇聚更多学界和产业界力量,这也是平台冠名“开放”之意义所在。

因而从学者、投资人到AI头部企业,寻找新的技术和方向成为了现在的重点。

人工智能能做的那三件事是因为它满足了五个条件,就是说只要满足了这五个条件,计算机就能做好,只要有任何一个或者多个条件不满足,计算机做起来就困难了。

知识中心将在清华大学和人工智能研究院的支持下,以这次发布的知识计算平台为起点,坚持做好做强知识计算平台,让知识为AI赋能。

在会议的开场报告中,清华大学张钹院士呼吁大家思考的“如何走向真正的人工智能”成为了为期三天会议的基调,同时也反映了行业发展至当下阶段,众人的诉求。

第一个是必须具备充足的数据,充足不仅仅是说数量大,还要多样性,不能残缺等。

清华大学知识计算开放平台(THUKC)详介

新方向探索

第二个是确定性。

会上,知识计算开放平台现有项目团队代表分别做了学术报告,详细介绍了清华发布的知识资源和计算平台。

数据处理方法、基本思想和技术思路

第三个是最重要的,需要完全的信息,围棋就是完全信息博弈,牌类是不完全信息博弈,围棋虽然复杂,但本质上只需要计算速度快,不要靠什么智能,可是在日常生活中,我们所有的决策都是在不完全信息下做的。

知网(HowNet)知识系统共同发明人董强发表《THUKC语言与常识知识库——OpenHowNet》的学术报告。

  1. 数据处理层面,语义向量空间或进一步拓宽入口。

第四个是静态,包括按确定性的规律演化,就是可预测性问题,在复杂路况下的自动驾驶就不满足这一条;实际上它既不满足确定性,也不满足完全信息。

OpenHowNet:基于义原的开放语言知识库

看见了技术的“天花板”,很多专家学者开始提出“小数据”的概念,然而清华大学人工智能学院院长张钹院士却不认为数据量的大小是当下的根本问题所在,他指出,传统的人工智能三要素将不能带来真正的智能。

第五个就是特定领域,如果领域太宽他做不了。单任务,即下棋的人工智能软件就是下棋,做不了别的。

网址:

www.3559.com 3

经济观察报:就是说在满足这五个条件的前提下,目前的人工智能是胜任部分工作的?

知网HowNet是由董振东先生、董强先生父子毕三十年之功建立的一个以汉语和英语的词语所代表的概念为描述对象,以揭示概念与概念之间、以及概念所具有的属性之间的关系为基本内容的语言和常识知识库。

清华大学人工智能学院院长、中国科学院院士 张钹

张钹:如果你的工作符合这五个条件,绝对会被计算机替代,符合这五个条件的工作特点很明显,就是四个字“照章办事”,不需要灵活性,比如出纳员、收银员。如果你的工作富有灵活性和创造性,计算机绝对不可能完全代替,当然部分代替是可能的,因为其中肯定也有一些简单和重复性的内容。如果认识到这一条就会认识到人工智能仍处于发展阶段的初期。不是像有些人估计的那样“人工智能技术已经完全成熟,而进入发展应用的阶段”。

HowNet秉承还原论思想,认为词义概念可以用更小的语义单位来描述,这种语义单位被称为“义原”(Sememe),是最基本的、不易于再分割的意义的最小单位。在不断标注的过程中,HowNet逐渐构建出了一套精细的义原体系 (约2000个义原)。

“评价人工智能获得的成果,我们可以从这五件事来看:深蓝打败人类国际象棋冠军;IBM在电视知识竞赛中打败了美国的前两个冠军;2015年微软在ImageNet上做图象识别,误识率略低于人类;百度、讯飞也都宣布在单句的中文语音识别上识别准确度略低于人类和AlphaGo打败了李世石。前两件事归为一类,后三件事可归为另一类。

二、“深度学习技术,从应用角度已经接近天花板了”

HowNet基于该义原体系累计标注了数十万词汇/词义的语义信息,自1999年正式发布以来引起了中文信息处理领域极大的研究热情,在词汇相似度计算、文本分类、信息检索等方面探索了HowNet的重要应用价值,建立了广泛而深远的学术影响力。

大家一致认为,这五件事得以发生的三要素是:大数据、算力的提升和非常好的人工智能算法。但我认为大家忽略了一项因素,就是这所有的成果必须建立在一个合适的场景下。”

经济观察报:我们应该怎么去定义目前的深度学习技术路线,它是基于概率学的一个事物吗?

2017年以来,清华大学研究团队系统探索HowNet知识库在深度学习时代的应用价值,并在词汇语义表示、句子语义表示、词典扩展等任务上均得到了验证。研究发现,HowNet通过统一的义原标注体系直接精准刻画语义信息,一方面能够突破词汇屏障,深入了解词汇背后丰富语义信息;另一方面每个义原含义明确固定,可被直接作为语义标签融入机器学习模型,使自然语言处理深度学习模型具有更好的鲁棒可解释性。相关成果均发表在AAAI、IJCAI、ACL、EMNLP等人工智能和自然语言处理领域顶级国际会议上。

换言之,当下人工智能的发展避不开种种限制条件,因而智能的机器也只能够照章办事,没有任何灵活性,也达不到人们想要的智能,而这也就是当下AI的发展状态。

张钹:现在的深度学习本质是基于概率统计,什么叫做概率统计?没有那么玄,深度学习是寻找那些重复出现的模式,因此重复多了就被认为是规律,因此谎言重复一千遍就被认为真理,所以为什么大数据有时会做出非常荒唐的结果,因为不管对不对,只要重复多了它就会按照这个规律走,就是谁说多了就是谁。

为了让HowNet知识库及其学术思想得到更广泛的应用,知识中心联合董氏父子共同开源HowNet知识库核心数据,研制了知识库的访问与计算工具包,并将在清华大学知识计算平台上持续地维护、更新和扩展。

“我们现在的人工智能基本方法有缺陷,而我们必须走向具有理解能力的AI,这才是真正的人工智能。”张钹院士在演讲中指出。

我常常讲我们现在还没有进入人工智能的核心问题,其实人工智能的核心是知识表示、不确定性推理这些,因为人类智慧的源泉在哪?在知识、经验、推理能力,这是人类理性的根本。现在形成的人工智能系统都非常脆弱容易受攻击或者欺骗,需要大量的数据,而且不可解释,存在非常严重的缺陷,这个缺陷是本质的,由其方法本身引起的。

XLORE:千万级概念实体和亿级实体大规模跨语言知识图谱

那解决办法是什么呢?通过循序渐进,张院士在演讲中给出了思路,并指明语义向量空间这一技术方向。

经济观察报:就是说通过改良的方式无法彻底解决?比如我们再增加神经网络层数和复杂性或者再提升数据的量级,会解决它的缺陷吗?

网址:

“首先,需要明确的是,现有的机器缺乏推理能力的原因在于它没有常识。”

张钹:改良是不行的,深度学习的本质就是利用没有加工处理过的数据用概率学习的“黑箱”处理方法来寻找它的规律,这个方法本身通常无法找到“有意义”的规律,它只能找到重复出现的模式,也就是说,你光靠数据,是无法达到真正的智能。

李涓子教授介绍XLORE,融合百度百科、中英文维基百科等多语言融合的知识图谱

张钹院士通过实验验证,常识的建立确实会极大程度的提升机器的性能。而为机器建立常识库也成为人工智能企业进一步提升系统性能的第一步。“美国在1984年就搞了这样一个常识库的工程,做到现在还没完全做出来。可见,要走向真正的人工智能,有理解的人工智能,是一条很漫长的路。”

此外,深度学习只是目前人工智能技术的一部分,人工智能还有更大更宽的领域需要去研究,知识表示、不确定性处理、人机交互,等等一大片地方,不能说深度学习就是人工智能,深度学习只是人工智能的一部分。一直到去年人工智能大会交流的论文还是三分之一是机器学习方面,三分之二是其他方面。

接下来,李涓子教授介绍了THUKC世界知识图谱——XLORE。

但即使在建立常识库的基础上,做到有理解能力的人工智能依然不容易。想要提升智能的第二步,在张院士看来,就是将感性和知识的世界统一起来,而这将为人工智能的发展带来一次质的飞跃。

经济观察报:学界在这上面还是有一个比较清晰的认识?

XLORE是中英文知识规模平衡的大规模跨语言百科知识图谱。该图谱通过融合中文、英文的维基百科和百度百科,并对百科知识进行结构化和跨语言链接构建而成。

“深度学习之所以能够极大的促进人工智能的发展,技术上的关键在于人们能够将获取的标量数据转变为向量,从而用到机器上。但至今为止,将行为和数据结合起来使用始终是科研的难点,而这就限制了机器变得更‘智能’。”

张钹:我可以这么说,全世界的学界大多数有清晰的认识;全世界的企业界大多持过于乐观的估计。

该图谱以结构化形式描述客观世界中的概念、实例、属性及其丰富语义关系。XLORE目前包含约247万概念、44.6万属性/关系、1628万实例和260万跨语言链接。XLORE作为世界知识图谱,将为包括搜索引擎、智能问答等人工智能应用提供有力支撑。现在全部内容都可以用网站下载使用。

不仅如此,从安全层面来看,纯数据驱动的系统也存在很大问题——鲁棒性很差,易受到很大的干扰。因而,在大量样本的训练下,系统仍会犯重大的错误。如商汤、旷视等头部企业也表示,即便训练出的系统模型准确率高达99%,但在实际应用中,系统仍然会犯很多“弱智”的错误。

为什么出现这样的情况呢?因为从事过早期人工智能研究的人,大多已经故去或者年老,已经没有话语权。现在活跃在人工智能研究第一线的都是深度学习、大数据兴起以后加入的,他们对人工智能的了解不够全面。

XLORE集成了多项创新研究成果:

“我们现在想出的解决办法是这样的,就是把这特征向量空间和符号向量投射到一个空间去,这个空间我们把它叫做语义向量空间。”

经济观察报:如果说每一个技术路线都有一个“技术潜力”,那么在深度学习方面,我们已经把这个潜力用了多少?

1.利用基于链接因子图模型的知识链接方法,实现对不同语言知识资源之间的实体知识关联;

怎么做?张院士表示:

张钹:科学研究是很难精确估计的,但是深度学习如果从应用角度,不去改变它,我觉得已经接近天花板了,就是说你要想再出现奇迹的可能性比较小了。

2.利用跨语言概念层次关系的验证保证生成跨语言本体中概念关系的质量,并进一步研究了跨语言知识图谱的概念层次剪枝和优化算法以规范知识分类体系;

第一,要通过Embedding把符号变成向量,尽量保持语义不丢失;

经济观察报:那基于此,目前商业公司在底层技术和产业应用上还是有很大的空间吗?

3.利用因子图模型建立跨语言属性间的对应关系,减少知识图谱的冗余;

第二就是Raising,结合神经学科,把特征空间提升到语义空间。

张钹:只要选好合适的应用场景,利用成熟的人工智能技术去做应用,还有较大的空间。目前在学术界围绕克服深度学习存在的问题,正展开深入的研究工作,希望企业界,特别是中小企业要密切注视研究工作的进展,及时地将新技术应用到自己的产品中。当然像谷歌、BAT这样规模的企业,他们都会去从事相关的研究工作,他们会把研究、开发与应用结合起来。

4.联合使用DBpedia分类树、维基分类体系、百度百科词条标签对未分类实体进行类别标注。相关成果发表在WWW、IJCAI、ACL、EMNLP等人工智能和自然语言处理领域重要国际会议上。

“只有解决这些问题,我们才能够建立一个统一的理论。因为在过去,对感知和认知的处理方法是不同的,因而两者不在同一维度,无法统一处理。但如果我们能够将感知和认知投射到同一空间,我们就可以建立一个统一的理论框架,并在语义向量空间里解决理解问题。这是我们的目标,但是这项工作是非常艰巨。”

经济观察报:有一种观点认为我们强调的“白盒”它实际上是从人的思维来强调的,但是通过大数据、概率统计工具离散到连续的投射,它实际上是机器的思维,你不一定需要它给你一个解释,只要正确的答案就可以了?

与著名知识图谱DBpedia相比,XLORE的中文实体数量是其的3.6倍,中英文跨语言链接增加39%。XLORE还提供多样化数据API服务,系统累计访问次数过亿次,访问来自53个不同国家或地区;2018年API响应调用160万余次。XLORE项目计划于2019年正式发布跨语言实体链接服务XLINK。

  1. 基本思想的颠覆,模糊计算或是未来。

张钹:目前有两种意见,一种观点认为智能化的道路是多条的,不是只有一条路能通向智能,我们通过自然进化产生了自然智能,那么我们为什么不能通过机器产生机器智能?这个智能和自然智能不会是完全一样的,条条大路通罗马,我们通过自然进化获得的智能也不见得是最佳的。这个观点我赞成,机器智能与人类不相同,其实是有好处的,恰恰可以互补,发挥各自的长处。

在世界知识的获取、表示与计算方面,中心还研制发布了很多开源工具和评测数据集,如知识表示学习工具包OpenKE、神经网络关系抽取工具包OpenNRE、Few shot learning关系抽取数据集FewRel等,自发布以来获得学术界与产业界广泛使用。

“无论是知识图谱,语义向量空间还是当下的其他深度学习训练,它们都是基于概率统计理论,而模糊逻辑不是,它是以模糊集理论为基础的。”非常大胆的,从思想层面,美国犹他州立大学计算机系终身教授承恒达给出了颠覆性的想法。

但是从长远来看,必须得走人类智能这条路,为什么?因为我们最终是要发展人机协同,人类和机器和谐共处的世界。我们不是说将来什么事情都让机器去管去做,人类在一边享受。我们要走人机共生这条路,这样机器的智能就必须和人类一样,不然没法共处,机器做出来的事情,我们不能理解,我们的意图机器也不知道,二者怎么能合作?

AMiner:大规模科技知识挖掘平台

www.3559.com 4

经济观察报:就是必须具有可解释性?

网址:

美国犹他州立大学计算机系终身教授 承恒达

张钹:是,就是可解释性,你要它做决策,你不理解它,飞机就让它开,谁敢坐这架飞机?所以目前的阶段,车和飞机还是不能完全让机器开的。为什么司机坐在上面我们放心?因为我们和他同命运,要撞死一块撞死,机器和你可不是同一命运,它撞不死,你撞死了。

清华大学计算机系教授唐杰详细介绍了科技知识挖掘平台AMiner和清华大学人工智能技术系列报告THUAITR

其实模糊逻辑并非全新的概念。1931年,Kurt Gödel发表论文证明了形式数论系统的“不完全性定理”,模糊逻辑诞生。而在1965年,美国加州大学的L.A.Zadeh博士发表的关于模糊集的论文,标志着人类首次用数学理论成功描述了不确定性。

有的人非常脱离实际的去想这个问题,这是不对头的,人类怎么会去那样发展机器呢?人类不会去那么发展的,有些人在那边担忧什么机器人统治人类,我说这最多只能算远虑。

AMiner作为科技情报网络大数据挖掘平台,包含超过2亿篇学术论文和专利以及1.36亿科研人员学术网络。该平台于2006年上线,已经累计吸引全球220个国家和地区的800多万独立IP访问,数据下载量230万次,年度访问量超过1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

“现在的计算机领域,不是0就是1,而我们描述的是0到1之间的很多不确定性成分,其实,这一过程描述的是导致结果的原因。以两瓶水为例,一瓶水上标记‘是纯净水的概率是0.91’,而另一瓶水上标记的是‘水的纯净程度是0.91’,你会选择哪一瓶呢?显然,你会选择后者。这里的思考判断过程就是模糊逻辑,因为后者对于程度的描述本质上就是模糊的。”

经济观察报:所以图灵的论文中也说这种观点“不值一驳”。

AMiner项目团队与中国工程科技知识中心、微软学术搜索、ACM、IEEE、DBLP、美国艾伦研究所、英国南安普顿大学等机构建立了良好的合作关系,项目成果及核心技术应用于中国工程院、科技部、国家自然科学基金委、华为、腾讯、阿里巴巴等国内外20多家企事业单位,为各单位的专家系统建设及产品升级提供了重要数据及技术支撑。

目前,类似于经典逻辑体系(微积分、线性代数、生物学等衍生学科),模糊逻辑也逐步形成了自己的逻辑体系。

张钹:是,那是远虑,我们目前还有很多近忧,发展人工智能必须要考虑安全问题,这已是现实问题。

唐杰教授还介绍了清华大学人工智能技术系列报告THUAITR,并新发布了“知识图谱研究报告”和“数据挖掘研究报告”两份新报告。

然而再好的技术,都需要结合应用去展现它的优势。在这一方面,承教授也是格外重视,于是他选择了乳腺癌的早期诊断研究领域。“到目前为止,我们的设计样本已经被全世界二十多个国家,五十多个团队用来使用。”

你看语音合成,利用现有的技术可以做到以假乱真,和真人基本没有差别。现在看来这种技术不能推广应用,因为一旦推广就全乱套了,只要搞一段用语音合成技术做成的假录音,就可以让任何一位名人身败名裂。这些都是非常危险的技术。人工智能的治理已经提到日程上了。

THUAITR:清华大学人工智能技术系列报告

在承教授看来,现有的技术存在着非常明显的不足,需要大家沉下心来去分析问题,从而探索到改进的方法。“现在大家都在模拟脑波中的电信号,但其实大脑里存在的不仅仅是电信号,还有化学反应。而很多人在做的医学图像处理,实际上只是做图像处理,却不是医学图像处理,它们之间是有着非常大的不同。”

三、“我们培养不出爱因斯坦、培养不出图灵”

网站:

  1. 技术思路:大繁至简

经济观察报:一种观点认为中国有更多的数据和更多的工程师,这种规模能倒推带来基础研究层面的突破或者决定技术的路线?

THUAITR以AMiner全球科技情报大数据挖掘服务平台为基础,聘请领域专家作为顾问,结合人工智能自动生成技术,以严谨、严肃、负责的态度制作发布的人工智能技术评论及人才分析。报告内容涵盖技术趋势、前沿预测、人才分布、实力对比、以及洞察情报等。

当下,面对技术的毫无进展,AI公司的焦虑显而易见。不同于上面院士教授们给出的具体技术思路,马毅教授更像是科技界的“鲁迅”,他用PPT中一张张演讲稿中的优质论文做例,只为重新唤醒大家对于AI的思考。

张钹:这里混淆了好多概念,科学、技术、工程。科技水平需要三个标准来衡量,一个是科研水平、一个是技术水平、一个是工程实践能力,或者产业化能力。

2018年,THUAITR共发布14份技术报告,主题包括:自动驾驶(基础版)、机器人、区块链、行为经济学、机器翻译、通信与人工智能、自动驾驶、自然语言处理、计算机图形学、超级计算机、3D打印、智能机器人、人脸识别、人工智能芯片,累计阅读量超过120万人次。

www.3559.com 5

我们中国什么情况?从工程角度来看,在一些领域我们“接近世界水平”;技术水平我用的词是“较大差距”,因为不少东西还是外国会做我们不会做;科研究领域我用的词是“很大差距”,科学研究就是原创,实际上,所有人工智能领域的原创成果都是美国人做出来的,人工智能领域图灵奖得主共十一人,十个美国人,一个加拿大人。

此外,清华大学计算机系副教授黄民烈还在会上做了报告《知识计算典型案例——常识知识感知的语言生成初探》,主要介绍了两项工作:一是结合常识进行对话生成,一是符合逻辑的故事结局的生成。

马毅教授现场PPT选

经济观察报:数据显示中国在人工智能领域的论文发表量和被引用次数都已经进入前列位置,这是否说明中国人工智能科学研究领域的突破?

知识中心是清华大学人工智能研究院设立的首个研究中心。中心将致力于知识智能相关基础理论研究和应用基础研究,建设融通语言知识、常识知识、世界知识的大规模知识图谱及典型行业知识库,建设具有国际影响力的知识计算开放平台,同时积极开展高水平国际学术交流,促进产学研深度合作。

“神经网络,导入的数据有一个很小的改动,分类就会有很大的变化,这不是什么新发现,2010年,大家就遇到这样的问题,但至今没有解决。”演讲一开始,马毅就拎出了“老生常谈”,毫不留情的将一盆冷水浇到了众多对AI盲目乐观的人身上。

张钹:如果单从论文来看研究水平,基本反映在三个指标上:数量、平均引用率、单篇最高引用率。拿人工智能来讲,中国研究者论文的数量和平均引用率都还不错,但是单篇最高引用率和世界差距就很大,而这个指标恰恰是反映你的原创能力。

知识中心在成立仪式上发布了体现国内领先水平的清华大学知识计算开放平台,内容涵盖语言知识、常识知识、世界知识和科技知识库,包括:在我国著名机器翻译专家董振东先生毕三十年之功建立的语言和常识知识库《知网》基础上所研制的OpenHowNet;中英文跨语言百科知识图谱XLORE;科技知识挖掘平台AMiner。董强先生、李涓子教授、唐杰教授、黄民烈副教授、刘知远副教授分别介绍了知识计算开放平台本次发布的相关资源及应用案例。知识中心负责人李涓子教授表示,中心将在清华大学和人工智能研究院的支持下,以本次发布会为起点,坚持做好做强知识计算开放平台,用知识为AI赋能。

对技术的不正确认知,马毅也在极力得纠正。

也就是说深度学习这个领域,我们的平均水平达到世界水平了,但是最高水平和世界差距还是很大的。不过还是要肯定的,我们应用上发展比较快。

成立仪式上,还发布了基于AMiner的《清华大学人工智能技术系列报告》。

“在人脸识别领域,要让算法具有鲁棒性,比写个AlphaGo要困难千倍。”

经济观察报:清华在这方面有什么优势吗?

文章来源:新智元

“都说神经网络越大越好,这简直是胡说八道。”

张钹:在人工智能重要的会议杂志上,这十年期间论文数量、平均质量CMU排第一,清华大学排第二。我们培养的人,在计算机这个领域,清华的本科、博士生都是世界一流的。

嬉笑怒骂间,从事研究数年,马毅给出了自己的思考方向:“真正的优质算法一定是最简单的,比如迭代、递归,还有经典的ADMM,这些简单的算法就很好,也很有用。”

目前我们的跟踪能力是比较强的,一旦有人起个头,我们能迅速跟上去。但是很可惜,我们缺乏顶尖人物,也培养不出顶尖的人才,如爱因斯坦、图灵等。

结语

我个人认为原因之一,可能与中国的文化有点关系,我们的从众心理很严重,比如在人工智能领域,深度学习很热,发表的论文作者中几乎70%是华人,但是其他非热门领域,包括不确定性推理、知识表示等几乎没有华人作者。这就是从众扎堆,不愿意去探索“无人区”。

接下来,人工智能技术的发展并不会乐观,尤其是产业发展将进入一个平缓期,但是这并不意味着学术界和产业界将无事可做。

当然也不要着急,科学研究本来就是富人干的事情,是富国干的事情,我们还是发展中国家,科学研究起点比较低,暂时落后是难免的,我们会迎头赶上。

www.3559.com 6

四、“低潮会发生,但不会像过去那样”

张钹院士现场PPT选

经济观察报:如果说深度学习已进天花板,那么人工智能未来的前进方向将会在哪?

正如张钹院士指出的,“我们正在通往真正AI的路上,现在走得并不远,在出发点附近。但人工智能永远在路上,大家要有思想准备,而这也就是人工智能的魅力。”

张钹:最近我们准备提出一个新的概念,就是第三代人工智能的概念,人工智能实际上经历过两代,第一代就是符号推理,第二代就是目前的概率学习,我们认为现在正在进入人工智能的第三代。原因很明显,第一代、第二代都有很大的局限性。

经济观察报:你所说的第三代人工智能技术是有明确的实现方向或者特点吗?

张钹:我们现在提出的是要建立可解释、鲁棒性的人工智能理论和方法,发展安全、可靠和可信的人工智能技术。

经济观察报:这样的技术可能要等很久?

张钹:是啊,很难预计,我们也很着急。

经济观察报:是不是还得回归到数学等理论层面里再去找新的方法?

张钹:这个目前我们有两条路,一个是和数学结合,一个是和脑科学结合。你想想如果没有新的数学工具,没有来自于脑科学启发下的新思路,哪来的新理论?另一方面是要把数据驱动和知识驱动结合起来,因为通过数学、脑科学上寻求突破是比较艰难的,前面这件事现在则完全能够做。

经济观察报:这个结合是指之前几十年人工智能的经验统合到一块?

张钹:是的,至少有一个方向就是要把第一代和第二代结合,利用各自的优势。但是这两个结合很困难,因为他们在不同空间中操作,一个是向量空间,一个是符号空间,也需要有新的数学工具的加入。

经济观察报:看人工智能历史,每一代技术之间有很长的间隔期,第三代人工智能技术也会这样吗?

张钹:我认为会更长,因为需要攻坚,因为遇到的问题更困难。

经济观察报:会不会再过10年、20年,人工智能在学界或者公众心中,又变成一个“隐学”,就像70、80年代那样,大众又不会再经常提起来这个词?

张钹:低潮会发生,但不会像过去那样,原因在哪?因为有大数据、互联网和强大的计算资源,这些都会支撑人工智能继续走下去,尽管有的时候还只是表面上的繁荣。

640?wx_fmt=jpeg附:在2018 全球人工智能与机器人峰会上,清华大学人工智能研究院院长张钹院士做题为“走向真正的人工智能”的大会报告。以下为报告全文,供大家学习交流。

张钹院士:走向真正的人工智能

我今天要讲的中心思想就是:我们现在离真正的人工智能还有一段很长的路。为了讲清这个思想,我必须回答下面三个问题:

第一,什么叫做真正的人工智能?我们的目标是什么?

第二,为什么我们需要真正的人工智能?

第三,我们如何走向真正的人工智能?

我现在回答这三个问题。

首先我们如何评价目前人工智能取得的成果,我们的评价很简单,针对这 5 件事:

第一是深蓝打败人类国际象棋冠军;第二是 IBM 在电视知识竞赛中打败了美国的前两个冠军,这两件事是一种类型,后面的三件事是另外一种类型;即 2015 年微软在 ImageNet 上做图象识别,它的误识率略低于人类。还有百度、讯飞也都宣布在单句的中文语音识别上,它的误识率也略低于人类。还有一个是大家非常熟悉的 AlphaGo 打败了李世石。这 5 件事情都是机器在一定的范围内超过了人类,我们如何来评价这 5 件事?

大家一致认为这 5 件事之所以成功,是由于前面三个因素,一是大数据,二是计算能力提高,第三是有非常好的人工智能算法。这三个因素大家都讨论得非常多了,没必要我再来说,我现在要说的最后一个因素是被大家所忽略的,这个因素是说,这所有的成果必须建立在一个合适的应用场景下。这 5 件事虽然领域很不一样,但是它们都满足完全一样的条件,或满足下面的 5 个限制,首先你必须有丰富的数据或者丰富的知识,如果这两件东西没有,或者很少,你不用来谈人工智能,因为你无法实现无米之炊。人工智能唯一的两个资源,一个是数据,一个是知识。还有确定性信息、完全信息、静态的、单任务和有限领域。这 5 个条件里面任何一个条件不满足,现在的人工智能做起来就非常困难了。

大家想想这 5 个限制条件下的应用场景是什么样的应用场景?就是照章办事,不需要任何灵活性,这显然不是智能的核心。

我们现在分析一下上述 5 个场景。下象棋是完全信息博弈,信息完全和确定,没有问题。其次,它遵循着完全确定的游戏规则演化,我们把这种情况也叫做静态。Watson 机器人也是这样,Watson 是什么样的对话问题呢?它为什么选择知识竞赛呢?我们知道知识竞赛提的问题都没有二义性,都是明确的,它的答案总是唯一性的。所以这样的问答对机器人来讲是非常容易的。它涉及的领域虽然比较宽,但也是有限的,包括大家觉得很玄乎的围棋,也完全符合上面 5 个条件,所以对计算机来说也是很容易的。目前计算机打麻将就不行,因为牌类是不完全信息博弈,所以比棋类要难。总之,我们对目前人工智能取得的成果要有一个正确的评价。

目前的人工智能技术在以下领域都可以找到它的应用,它们是交通、服务、教育、娱乐等等,但我要强调是这些领域里面只有满足上述 5 个条件的事情,计算机做起来才会容易,如果不满足这些条件,计算机就做起来就困难了。大家常常关心什么样的工作会被机器所替代,我可以明确告诉大家,满足这 5 个条件的工作,总有一天会被计算机取代,就是那些照章办事,不需要任何灵活性的工作,比如说出纳员、收银员等等。在座的所有工作都不可能被计算机完全代替,但不排斥你的工作中有一部分会被计算机取代,老师、企业家等的工作不可能被计算机完全代替。

为什么有这 5 个限制?原因在于我们现在的人工智能是没有理解的人工智能。

我们先看符号模型,理性行为的模型,举 Watson 的例子,它是个对话系统,我们现在所有做的对话系统都跟这个差不多,但是 Watson 做得更好些,它里面有知识库,有推理机制。沃森除了专家知识之外,还有大量互联网上大众的知识,还运用了多推理机制。请看,这就是 Watson 系统的体系结构。它里面有哪些知识呢?有很多,包括百科全书、有线新闻、文学作品等等。所有的知识用纸质来表示有 2 亿页,用存储量表示达到了 4TB。它能回答什么问题呢?用它的例子来说明。第一个问题,1974 年 9 月 8 日谁被总统赦免?这对美国人来讲很好回答,同样对计算机来讲也很好回答,你用这几个关键字「1974 年 9 月 8 日」、「被总统赦免」,就能在文献里头查出来是谁,他就是尼克松。也就是说根据问题中的关键字,可以在已有的文献里头直接找到答案,这就是一般的网络检索方法。

第二个问题,荧光粉受到电子撞击以后,它的电磁能以什么方式释放出来?我们用「荧光粉」、「电子撞击」、「释放电磁能」等关键词,也可以找到答案:「光或者光子」。这种方法就是平时网络搜索的原理,应该说没有什么智能。

回答下面的问题就需要「智能」了,跟智利陆地边界最长的是哪个国家?跟智利有陆地边界的国家可以检索到,它们是阿根廷和玻利维亚,但是谁的边境长?通常查不到。Watson 具备一定的推理能力,它从边界间发生的事件、边界的地理位置等等,经过分析推理以后就可以找出答案,它就是阿根廷。下一个问题也属于这种性质,跟美国没有外交关系的国家中哪个最靠北,跟美国没有外交关系的国家有 4 个,只要检索就行了,但是哪个国家最靠北,没有直接答案,但可以从其它信息中推导出来,比如各个国家所处的纬度、气候寒冷的程度等等分析出来,答案是北朝鲜。

智能体现在推理能力上。但是很不幸,现在的对话系统推理能力都很差。Watson 系统好一些,但也很有限。换句话说,我们现在的对话系统离真正的智能还很远。

我们通过索菲亚机器人就可以看出来,索菲亚的对话是面向开放领域,你可以随便提问,问题就暴露出来了。大家在电视上看到索菲亚侃侃而谈,问什么问题都能答得很好,这里面有玄机,如果你的问题是预先提出来的,因为里头有答案,因此回答得非常好,在电视上给大家演示的都是这种情况。

如果我们临时提问题,问题就出来了。这是一个中国记者给索菲亚提的 4 个问题,它只答对了一个。「你几岁了」,这个问题很简单,它答不上来,它的回答是「你好,你看起来不错」,答非所问,因为它不理解你所问的问题。只有第二个问题它是有准备的,里面有答案,所以答得很好。「你的老板是谁」,这个肯定它有准备。第三个问题,「你能回答多少问题呢」?它说「请继续」,没听懂!。再问第四个问题,「你希望我问你什么问题呢」?它说「你经常在北京做户外活动吗」?这就告诉我们说,现代的问答系统基本上没有理解,只有少数有少量的理解,像 Watson 这样算是比较好的。

为什么会这样?也就是说我们现在的人工智能基本方法有缺陷,我们必须走向具有理解的 AI,这才是真正的人工智能。我这里提出的概念跟强人工智能有什么区别?首先我们说它在这点上是相同的,我们都试图去准确地描述人类的智能行为,希望人工智能跟人类的智能相近,这也是强人工智能的一个目标,但是强人工智能只是从概念上提出来,并没有从方法上提出怎么解决。大家知道强人工智能提出了一个最主要的概念,就是通用人工智能。怎么个通用法?它没有回答。我们现在提出来的有理解的人工智能是可操作的,不只是概念,这是我们跟强人工智能的区别。

人机对话的时候,机器为什么不能理解人们提的问题。我们看一个例子就知道了,我们在知识库里把「特朗普是美国总统」这个事实,用「特朗普-总统-美国」这三元组存在计算机里面,如果你提的问题是「谁是美国总统」?机器马上回答出来:「特朗普」。但是你如果问其它有关的问题,如「特朗普是一个人吗」?「特朗普是一个美国人吗」?「美国有没有总统」?它都回答不了。它太傻了,任何一个小学生,你只要告诉他特朗普是美国总统,后面这几个问题他们绝对回答得出来。机器为什么回答不了后面的三个问题呢?就是这个系统太笨了,没有常识,也没有常识推理。既然特朗普是美国的总统,美国当然有总统,但是它连这一点常识的推理能力都没有。所以要解决这个问题,必须在系统中加上常识库、常识推理,没有做到这一步,人机对话系统中机器不可能具有理解能力。但是大家知道,建立常识库是一项「AI 的曼哈顿工程」。大家想想常识库多么不好建,怎么告诉计算机,什么叫吃饭,怎么告诉计算机,什么叫睡觉,什么叫做睡不着觉,什么叫做梦,这些对人工智能来说都非常难,美国在 1984 年就搞了这样一个常识库的工程,做到现在还没完全做出来。可见,要走向真正的人工智能,有理解的人工智能,是一条很漫长的路。

这里介绍一点我们现在做的工作,加入常识以后,对话的性能会不会有所改善。我们的基本做法是建立一个常识图谱,用这个图谱帮助理解提出的「问题」,同时利用常识图谱帮助产生合适的答案。

下面就涉及到具体怎么做了,我不详细说了,我就说结果,结果是有了常识以后,性能有了显著的改善,对话的质量提高了。这篇文章已经发表,有兴趣可以去阅读。

另外是准符号模型,深度学习、神经网络主要用来模拟感性行为,感性行为是一般很难采用符号模型,因为感性没法精确描述。比如「马」,怎么告诉计算机什么叫做马?你说马有四条腿,什么叫做腿?你说细长的叫做腿,什么叫细?什么叫做长?没法告诉机器,因此不能用符号模型。目前用的办法就是我们现在说的神经网络或者准符号模型,也就是用人类同样的办法,学习、训练。我不告诉机器什么叫做马,只是给不同的马的图片给它看,进行训练。训练完以后,然后再用没见过的马的图片给它看,说对了,就是识别正确了,说不对就是识别不正确,如果 90% 是对的,就说明它的识别率是 90%。后来从浅层的神经网络又发展到多层的神经网络,从浅层发展到多层有两个本质性的变化,一个本质性的变化就是输入,深层网络一般不用人工选择的特征,用原始数据就行。所以深度学习的应用门槛降低了,你不要有专业知识,把原始数据输进去就行了。第二个是它的性能提高很多,所以现在深度学习用得很多,原因就在这个地方。

通过数据驱动建立的系统能不能算是有智能呢?必须打一个很大的问号,就是说你做出来的人脸识别系统甚至识别率会比人还高,但是我们还不能说它有智能,为什么呢?这种通过数据驱动做出来的系统,它的性能跟人类差别非常大,鲁棒性很差,很容易受干扰,会发生重大的错误,需要大量的训练样本。我们刚才已经说过,给定一个图像库我们可以做到机器的识别率比人还要高,也就是说它可以识别各种各样的物体,但是这样的系统,我如果用这个噪声输给它,我可以让它识别成为知更鸟,我用另外的噪声输给它,可以让它识别成为猎豹。换句话讲,这样的系统只是一个机械的分类器,根本不是感知系统。也就是说它尽管把各种各样动物分得很清楚,但是它不认识这个动物,它尽管可以把猎豹跟知更鸟分开,但是它本质上不认识知更鸟和猎豹,它只到达了感觉的水平,并没有达到感知的水平,它只是「感」,没有上升到「知」。我们的结论是,只依靠深度学习很难到达真正的智能。这是很严峻的结论,因为如果有这样的问题,在决策系统里头是不能用这样的系统,因为它会犯大错。我在很多场合讲过,人类的最大的优点是「小错不断、大错不犯」,机器最大的缺点是「小错不犯,一犯就犯大错」。这在决策系统里头是不允许的,这就显示人跟机器的截然不同,人非常聪明,所以他做什么事都很灵活,这就使得他很容易犯各种各样的小错。但是他很理性,很难发生大错。计算机很笨,但是很认真,小错误绝对不会犯,但是它一犯就是天大的错误。刚才把那个把噪声看成知更鸟,这不是大错吗?你把敌人的大炮看成一匹马,不是大错吗?但是人类不会发生这种错误,人类只会把骡看成驴,但是计算机的识别系统会把驴看成一块石头。原因在哪儿?原因还是 AI 的理解能力问题。

我们看这个自动驾驶,过去讲得很多,而且讲得很乐观,我们看看问题在什么地方。我们现在是这样做,我们通过数据驱动的学习方法,学习不同场景下的图象分割,并判别是车辆还是行人、道路等,然后建立三维模型,在三维模型上规划行驶路径。现在用硬件已经可以做到实时,请问大家,这样能不能解决问题?如果路况比较简单,行人、车辆很少,勉强可以用。复杂的路况就用不了。什么原因?非常简单,好多人总结出这个经验,行人或者司机都会有意无意破坏交通规则,包括外国人也一样,中国人更严重一点。这就使得数据驱动方法失效,比如说我们可以用数据驱动方法来了解各种各样行人的行为,我们可以通过大量进行训练,都训练完以后,如果出现新的情况呢?计算机能理解这是人从底下钻过来,很危险吗?所以你不可能把所有情况都训练到。自动驾驶不可能对付突发事件,如果这个突发事件它没见过,它就解决不了。怎么来解决这个问题呢?实际上就是要解决从「Without」到「With」理解的问题。人工智能现在有两种基本方法,一种是用符号模型来模拟理性行为,符号模型可以表达信息的内容,所以它是在一个语义的符号空间里头,但是非常不幸,这个离散的符号表示,数学工具很难用,很多数学工具用不上去,所以它发展很慢。在模拟感性行为的时候,我们用的是特征空间的向量,向量就是数,可以把所有的数学工具都用上,优化的工具、概率统计的工具全部用上。所以数据驱动方法这几年发展非常快,再难的问题,下围棋非常难吧,计算机也可以「算」出来。但是它有一个非常大的缺陷,它是在特征空间里,缺乏语义。我们用数据去训练一个模型,所谓「黑箱学习法」,加上你的数据质量不高,很难学出有用的东西。什么叫概率统计?重复多了就是真理。如果数据质量差,充满了「谎言」。谎言重复多了,就变成真理了。

我们现在想出的解决办法是这样的,就是把这两个空间投射到一个空间去,这个空间叫做语义的向量空间。也就是说我们把符号变成向量,同时把特征空间的向量变成语义空间的向量。怎么做?一是通过 Embedding把符号变成向量,尽量保持语义不变,可惜现在的方法都会引起语义的丢失,我们只能在投射的过程中让语义丢失得少。第二方面做的工作比较少,就是 Raising,把特征空间提升到语义空间去,这主要靠学科交叉,靠跟神经科学的结合。只有这些问题解决以后,我们才能够建立一个统一的理论,因为过去的感知和认知是不同的处理方法,大家说不到一块,如果我们能够投射到同一空间去,我们就可以建立一个统一的理论框架,这是我们的目标。在语义空间处理就可以解决理解问题,但是这项工作是非常艰巨的。

介绍一项我们现在做的工作。人工神经网络为什么不能得到语义信息呢?人脑的神经网络为什么可以呢?差别就在这里,我们现在用的人工神经网络太简单了,我们正想办法把脑神经网络的许多结构与功能加进去,我们这里只用了「稀疏发电」这一性质,就可以看出一些效果,人脸、大象或者鸟的轮廓,神经网络可以把它提取出来。

还有一个办法就是把数据驱动跟知识驱动结合起来。刚才讲了,人的智能没法通过单纯的大数据学习把它学出来,那怎么办?很简单,加上知识,让它有推理的能力,做决策的能力,这样就能解决突发事件。我们现在做的工作就是把这些结合起来,这是我们的基本思路,知识也好,数据也好,都投射到同一空间,然后都用同样的数学方法进行处理,这方面我们已经做了不少工作。

最后做一个总结,我们从这个坐标看人工智能,横轴代表领域的宽窄,从单领域到多领域、到开放领域。纵轴代表信息的确定性与完全性,从完全到不完全、从确定到不确定。在左下角代表最容易的,就是刚才讲的符合 5 个条件的,现在人工智能在这部分解决得非常好,我们用白色来表示它,AlphaGo 在这里,深蓝在这里,工业机器人在这里。现在我们正在向灰色地区去走,打牌,信息不完全,现在打德州扑克,一人对一人,计算机能战胜人类,多人对弈,计算机还不行,这是灰色地带,我们还可以做,为什么可以做?尽管打牌是不确定的,但是它在概率意义下是确定的,你拿的这副牌的概率,可以算出来,同花的概率是多少,排成顺的概率是多少,既然概率能算出来,最终人类肯定会被计算机打败。Watson 在右边,它的领域比较宽,但是它是确定性的,所以是在灰色的区域。往右上方去就比较难了,自动驾驶、服务机器人、大数据分析,它是一个大框,有的简单,有的困难,就自动驾驶来讲,专用道、行车很少,路况简单等,在白色或者灰色区,如果路况复杂就到了黄色区域,黄色区现在计算机还解决不好。最远的在哪儿呢?右上角,图灵测试。大家对图灵测试有很多误解,其实图灵测试是开领域问答,很难!索菲亚做得怎么样?很糟糕。自然语言理解也在这里,复杂环境下的决策在偏左一点的地方,这也是很难的。所以我们人工智能现在是从左下角往右上角走,我们现在处在出发点附近。有的人想把它用一些名词来区分人工智能的不同发展阶段,有专家问我,你的看法怎么样?我建议不要用新词,用新词往往说不清,很麻烦,有的人说现在是弱人工智能,以后是强人工智能,也有人说现在叫增强智能也是 AI……概念太多说不清,还是简单一点,「我们正在通往真正 AI 的路上」,现在走得并不远,在出发点附近,人工智能永远在路上,大家要有思想准备,这就是人工智能的魅力。大家为什么这么重视人工智能?因为我们永远在路上,这就吸引我们去解决这些问题,这些问题一旦解决了,人类的社会进步、人类的生活就会发生本质上的改变。

最后我用中文写最后一段作为总结,可惜我翻译不了。

周穆王西巡狩,路遇匠人名偃师。翌日偃师谒见王,偕来一个假人。「趋步俯仰,信人也」。「领其颅,则歌合律;捧其手,则舞应节。千变万化,惟意所适。王以为实人也,与盛姫内御并观之,技将终,倡者瞬其目而招王之左右侍妾。王大怒,要杀这个偃师。偃师大慑,立剖其倡者以示王,皆傅会革、木、胶、漆、白 、黑、丹、青之所为。穆王始悦,诏贰车载之以归。

这是 3000 年前我们古人对机器人的想象,看看现在的人工智能做得怎么样呢?索菲亚是我们现在达到的水平,可是她不会唱歌、不会跳舞,只会说英文,周王也听不懂,肯定没有印象。现在我们假设索菲亚「瞬其目而招王之左右侍妾」,向周王的姨太太们送去秋波,王会如何呢?我认为没反应,因为索菲亚是女的,他用不着吃醋。但是我们假设索菲亚「瞬其目而招王」,向大王送去秋波,王会大悦,立即神魂颠倒,坠入爱河?我认为不会,因为索菲亚根本不像人,它最近才刚刚安上手脚,走路都不利索,怎么行呢?所以我的结论是,「索菲亚通不过穆王的测试,当然它更通不过图灵测试」。

我们的结论是什么?人工智能刚刚起步,离真正的 AI 还很遥远,大家共同努力吧,我们任重道远。返回搜狐,查看更多

编辑:www.3559.com 本文来源:人工智能已到瓶颈,人工智能发展历史

关键词: www.3559.com