当前位置: 新豪天地登录网址 > www.3559.com > 正文

我们决定自己开发,扎克伯格的AI芯片野心

时间:2019-12-26 05:34来源:www.3559.com
FacebookAI研究主管YannLeCun从上世纪八十年代就开始研究神经网络,他在周一表示,深度学习需要比Python更灵活、更易用的新编程语言,但目前尚不清楚开发这样一种语言是否真的有必要。

www.3559.com 1

FacebookAI研究主管Yann LeCun从上世纪八十年代就开始研究神经网络,他在周一表示,深度学习需要比Python更灵活、更易用的新编程语言,但目前尚不清楚开发这样一种语言是否真的有必要。

雷锋网 AI 科技评论按:在意识到自己需要大力加快运算速度才能实现下一个人工智能突破后,Facebook 决定自行开发人工智能芯片来「狙击」亚马逊与谷歌。近日,Facebook 首席人工智能科学家 Yann LeCun 在接受英国《金融时报》采访时就此披露了大量第一手消息,雷锋网 AI 科技评论将之编译如下。

www.3559.com 2

Facebook人工智能科学家LeCun表示,深度学习可能需要一种比Python更灵活、更易于使用的新编程语言。自20世纪80年代以来,Lecun一直致力于神经网络方面的研究,对推动深度学习的发展作出了重要贡献。

LeCun对媒体表示:“谷歌、Facebook等组织都在设计一种对于深度学习来说更高效的编程语言,但很难说开发者社区是否会跟进使用这种新语言,因为人们更习惯Python,当前的问题是,这是不是一条正确的道路。”

www.3559.com 3

故事要从1992年开始说起。

目前,谷歌、Facebook和其它几个公司分别设计了深度学习方面的编程语言,可以有效地进行深度学习。LeCun的疑问是,人们现在只想使用Python,这是一种有效的方法吗?

GitHub的报告称Python目前在机器学习领域普遍受到开发者的欢迎,Facebook的PyTorch和谷歌TensorFlow的框架基础均是由Python写成。

Facebook 首席人工智能科学家、当代人工智能先驱之一的 Yann LeCun 在接受英国「金融时报」采访时表示,公司当前的目标包括打造一个具备「常识」、能与人类就任何主题展开交流的的数字助理,他认为这是当今语音控制设备必须踏出的关键一步;此外,Facebook 还希望能将 AI 变成实用的社交网络管控工具,协助人类实时监控视频并决定哪些内容可以在平台上出现。

1992年,在美国新泽西州霍姆德尔市,一处离海岸只有24公里的宁静小镇上,屹立着大半个世纪以来全球最著名的科学实验室之一ATT贝尔实验室。

根据GitHub最近的报告,Python目前是开发人员开发机器学习项目最流行的语言,包括Facebook的PyTorch和Google的TensorFlow基础框架都是用Python完成的。

www.3559.com 4

为此,Yann LeCun 说 Facebook 与多家芯片公司展开了合作,比如最近与英特尔的合作项目,以及 Facebook 自行开发、可支持自家 AI 程序的定制「ASIC」芯片。「众所周知,Facebook 经常根据自身业务需求来构建硬件矩阵,ASIC 芯片是其中一个例子。我们将为此竭尽全力「这是 Facebook 首次以官方的形式公开其在 AI 芯片领域的愿景。谈及 Facebook 在芯片以及计算系统基础方面取得突破的可能性,Yann LeCun 补充道:「往下绝对拥有巨大的发展空间。」

ATT贝尔实验室

人工智能已有50多年的历史,但其目前的增长、计算与硬件提供的计算能力密切相关。20世纪80年代,LeCun在贝尔实验室开发出CNN,他表示更好的硬件导致更好的算法和更好的性能。在21世纪初,LeCun离开贝尔实验室到纽约大学后,与Bengio、Hinton等杰出人物合作,继续研究神经网络并提高了深度学习的知名度。

Python

无论如何,Facebook 自行打造专属的 AI 芯片将给 Nvidia 带来长期挑战,因为 Nvidia 是目前 AI 图形处理器的主要生产商,接下来将面临来自大数据中心客户退出的短期挤压。实际上,一款速度快、功耗低,用来执行指定任务的专业 AI 芯片,不仅只有谷歌、亚马逊、苹果等大公司在倾力投入,当中还包括几十家初创企业。

www.3559.com,在这个传奇的实验室里,不仅诞生了7位诺贝尔奖获得者,还是诞生了世界上第一个晶体管、蜂窝式电话系统、通讯卫星、有声电影、太阳能电池、C/C 语言、UNIX系统

近年来,随着硬件的进步,如可编程阵列FPGA、张量处理单元TPU和图形处理单元GPU在深度学习这一领域发挥了重要作用。据报道,Facebook也在研究半导体产品,可用的硬件对研究类型产生着很大的影响,因此未来十年左右AI方向将受到硬件的影响极大。LeCun强调,硬件制造商在未来几年应该考虑到AI的趋势,对未来不断扩大的深度学习系统提供更好硬件框架和支持。

LeCun在周一举行的ISSCC大会上发表了一篇论文,是探讨有关下一代计算机芯片最新趋势的。在论文中,LeCun介绍了他从BellLabs得到的收获,例如他观察到AI研究者和计算机科学家对未来的展望往往会被硬件和软件工具限制。更好的硬件带来更好的算法,更好的算法带来更好的性能,更好的性能驱使人们开发更好的硬件,这一良性循环存在不过几年之久。

www.3559.com 5

不仅如此,世界上第一块人工智能芯片也同样诞生于此。

LeCun还谈到如何专为深度学习设计硬件,这些硬件可以处理一批训练样本,而不是批量处理多个训练样本,因为这会浪费资源。他还建议动态网络和硬件可调整以利用任务所需的神经元。并且他重申了其观点,自我监督学习将在推进最先进的人工智能方面将发挥重要的作用。

LeCun在论文中表示,“下一个十年,AI的发展方向将极大地受到硬件发展的影响。”他强调了一些硬件厂商应当提前几年考虑到的AI趋势并就未来所需的AI架构种类给出了自己的建议,他还建议开发者不要忽视了深度学习系统不断增长的体量。

全球 AI 芯片初创企业近几年的融资情况(来源:CB Insights)

1992年,马克扎克伯格只有8岁,离他后来创办世界第一大社交网络Facebook还有12年时间,离卷积神经网络之父Yann LeCun加入Facebook人工智能研究院还有21年。

LeCun认为,未来的深度学习系统将主要通过自我监督学习进行训练,并且需要高性能的硬件来支持这种自我监督学习。对于2019年的人工智能发展,自我监督学习的硬件能够在自动驾驶、机器人和其它应用中发挥关键作用。

除此之外,LeCun在论文中也提及了对专门为深度学习而设计的硬件的需求,并强调了自我监督学习将会在艺术AI的高阶阶段发挥主要作用。LeCun相信,未来深度学习系统的训练将通过自我学习和高性能硬件来完成。

大家之所以会对芯片设计和硬件架构的前景表示关注,是因为意识到只有在基础计算方面取得根本性突破,才能避免 AI 走进死胡同。

就在这一年,世界上第一块同时也被当时研究频频受挫的Yann LeCun称为可能是世界上最后一块神经网络芯片ANNA,就诞生ATT贝尔实验室里。

Facebook这位AI界的LeCun专家谈论了未来深度学习硬件和软件方面的发展,这两方面是密不可分的,深度学习需要硬件的支撑才能发挥他真真的实用价值。我们期待这这一天早日到来,软硬件的最终完善将造福人类生活的方方面面。

Yann LeCun 表示,在人工智能整个发展历史中,研究人员提出有突破性的见解以前,往往都会在硬件层面先取得长足进步。「在一段相当长的时间里,人们都没有什么具体想法」这阻碍了人工智能的发展。其中就包括反向传播——当今深度学习系统中非常核心的一项技术,它通过将算法重新进行计算以最大限度减少错误。反向传播是早期研究的一个明显延伸,一直到计算硬件发展成熟之后才在 20 世纪 90 年代得到广泛应用。

1992年的ATT贝尔实验室一景

Facebook 在过去也曾经设计过其他类型的硬件,比如针对数据中心设备的新想法,然后再开放供其他人使用。Yann LeCun 表示,同样的理念也会应用到 AI 芯片的设计上,并补充道:「我们的目的是让更多的人因此受益。」

ANNA之兴与卷积神经网络之衰

此外,Facebook 还会将研究重点放在新神经网络的设计上,这是深度学习系统的核心,它有效促进了图像识别与语音识别等领域的发展。三十年前,当 Yann LeCun 还在在 AT&T 贝尔实验室投身于 AI 芯片研究工作时,他建立了第一个「卷积」神经网络 - 一种借鉴了动物视觉皮层如何工作的设计,而这在当今的深度学习系统中很是常见。

众所周知,无论是人工智能、深度学习还是神经网络,这些近年来大火的概念其实都可以追溯到几十年前。但由于这些算法对于数据与计算量都有着极大的要求,当时的软硬件条件都无法满足,因而这类研究一直到近些年才大火起来。

www.3559.com 6

不过,即便在众人并不看好深度学习的年月里,依然有一小群在神经网络寒冬里也坚持信念的科学家们,Yann LeCun就是其中一个。

Facebook 首席人工智能科学家 Yann LeCun

1988年10月,在学习完神经科学、芯片设计,并师从多伦多大学深度学习鼻祖Geoffrey Hinton后,年仅27岁的年轻博士后Yann LeCun来到美国新泽西州,正式成为传奇的ATT贝尔实验室的一员。

今天的神经网络经常使用一个被称作监督学习的技术,该技术需要大量的数据进行训练,一旦在 Facebook 这种体量的公司上运行,还将消耗大量电力。据Yann LeCun介绍,如今 Facebook 每日需要对上传至系统上的 2-3亿张照片进行大量即时分析,其中包括使用面部识别技术辨别照片中的人物、为描述场景起标题、以及识别类似裸露等在平台上不被允许的内容。

在当时的贝尔实验室里,已经有一组研究员在进行英文字母识别的研究,并且积累下了一个拥有5000个训练样本的USPS数据集这在当时已经是一个非常庞大的数据集。

Facebook 正致力于“做一切可以降低功耗并改善延迟的事情”来提升系统处理速度。他补充道,在网站上对视频进行实时监控的巨大需求,导致需要对神经网络重新进行设计。

在这个数据集的帮助下,Yann LeCun在三个月内便打造并训练了第一个版本的卷积神经网络LeNet one,在字母识别上取得了有史以来最高的准确率,也正式标志着卷积神经网络的诞生。

为此,Facebook如今正努力寻找全新的神经网络架构,以便能模拟人类智能的更多方面,使其能更自然地与人类进行交互。Yann LeCun表示,Facebook正在在大力投入建设“自我监督”(self-supervised)系统,该系统能够对真实世界做出更广泛的预测,而不只是根据训练数据来得出结论。这将使系统对世界产生广泛的理解,从而让人类得以应对新情况。

不过,Yann LeCun的研究并没有止步在软件层面。1989年,Yann LeCun与实验室的其他实验员Bernhard Boser、Edi Sackinger等人共同撰写了一篇新论文,介绍了他们所研制的一款名为ANNA的神经网络芯片。

“就新用途而言,Facebook很希望开发出具体一定“常识”水平的智能数字助理 ”他如此说道。 “这些助理拥有相应知识背景,你可以就任何话题与它们进行探讨。”然而,创建这种具有常识的计算机的想法尚处于早期阶段,Yann LeCun表示,这种更深层次的智能“不会在明天突然发生”。

ANNA神经网络芯片

“我们都希望机器能够像人类或者动物一样能够理解当世界对你的交互做出反应时会发生什么。为此,我们在因果关系的研究方面下了很大功夫,“他这么说道。 “如何在不确定性中做出预测是当今的主要挑战之一。”

ANNA中包括64个计算单元,专门针对卷积神经网络进行了优化,其峰值吞吐量为每秒40亿次加法。

Facebook是推动当今神经网络研究工作的一个重要力量。Yann LeCun周一将在旧金山举行的芯片会议上发表演讲来概述这项工作。其中就包括可以根据数据调整其设计的网络,以便能够更灵活地应对现实世界。另一个关于网络的研究途径是仅“除去”那些需要用来解决特定问题的神经元,这种方法借鉴了人类大脑的运作方式,可以有效降低功耗。其他研究工作还包括将计算机存储器添加到神经网络当中,以便在与人类进行“对话”时,可通过保留更多信息来形成更强的上下文语境。

虽然在此之前,神经网络作为一个新兴的研究方向已然小有名气,有不少研究人员也尝试打造过神经网络芯片,但它们都无法放在板级测试环境中,也就无法在真实世界中应用。

另外值得一提的是,关于神经网络如何发挥作用的研究进展很可能对芯片的设计产生影响,给制造当今领先AI芯片的公司带来更多竞争。Yann LeCun补充说道,谷歌的TPU——已成为当今最强大的机器学习芯片 “仍然被业界普遍使用”, “然而他们的假设不一定适用于未来的神经网络架构。”

除了ANNA之外,贝尔实验室还曾在1991年打造过一款Net32K芯片。在Yann LeCun等人随后发布了一系列论文中,他们不仅介绍了ANNA在板级测试中的优秀表现,还展示了ANNA在利用卷积神经网络在文本倾斜检测、手写数字识别等应用上的优异表现,让ANNA当之无愧地成为了世界上第一块能用的人工智能芯片。

另一方面,硅设计的灵活性可能还存在其他缺点。例如,微软有计划在其所有数据中心的服务器中植入一种被称为 field programmable gate array 的新类型芯片。虽然在使用上更加灵活,然而却降低了处理大量数据时的效率,使它们在应对特定任务时在芯片处理方面处于劣势地位。

搭载ANNA的测试板原理示意图

via

不过,天有不测风云。1996年,ATT公司进行了一轮拆分,通信运营业务保留在新ATT中,一部分贝尔实验室和ATT的设备制造部门被剥离出来形成了朗讯科技,另一部分负责计算机业务的部门则组建了NCR公司。

雷锋网 AI 科技评论

Yann LeCun与新ATT实验室成员,摄于2002年

Yann LeCun留在了新ATT的实验室里,担任ATT实验室图像处理研究部门负责人,然而极其不幸的是,卷积神经网络的专利却被律师团队最终决定分给了NCR公司。

用Yann LeCun的话来说,当时NCR手握卷积神经网络的专利,却完全没有人知道卷积神经网络到底是什么,而自己却因为身处另一家公司而无法继续进行相关研究。

然而,在1996年后的时间里,科学界对神经网络的兴趣逐渐走向衰微,越来越少人进行相关研究,一直到2010年以后才重新兴起。

AI芯片浪潮袭来

让我们把时间调回现在。

在过去的这十年间,AI领域迎来了一场新浪潮。

人工智能这一项新兴技术,在经历了技术积累、升级、发酵之后,正在以AI芯片作为载体而全面崛起。据智东西报道了解得知,目前全球至少有50家初创公司正在研发语音交互和自动驾驶芯片,并且至少有5家企业已经获得超过1亿美元的融资,这一数目还在不断增加当中。

除了创业市场一片兴盛外,各大科技巨头也毫不示弱。除了谷歌、苹果、华为、百度、英特尔、赛灵思等巨头陆续重拳入局AI芯片外,亚马逊也被曝出拥有449人的芯片团队,设计定制AI芯片的消息基本坐实。

作为目前全球市值最高的第五大科技企业,日活跃用户达14.5亿、月活跃用户达22亿的全球第一大社交网站Facebook自然也不会缺席这场战役。

2013年,时任纽约大学教授的Yann LeCun宣布加入Facebook,帮助建立Facebook人工智能研究院。

部分Facebook人工智能研究院成员

在成立五年以来,Facebook人工智能研究院已经在美国加州门洛帕克、美国纽约、法国巴黎、以及加拿大蒙特利尔等地建有六所人工智能研究所,拥有超过115位科学家,各自专攻机器视觉、机器学习、自然语言处理等领域,包括何凯明、田渊栋等国内熟悉的人工智能学者。

在Yann LeCun的带领下,Facebook人工智能研究院中不仅诞生了著名的Caffe、Caffe2深度学习开源框架,也让Facebook在这人工智能浪潮当中能够与谷歌等巨头一争高下。

早在2017年底,Facebook就已经作为英特尔的首位合作伙伴,内部测试了英特尔AI云端芯片Spring Crest,并与英特尔合作进行了AI芯片的研发与优化,一时间有关Facebook要打造自己的云服务器AI芯片的传言尘嚣甚起。

不过我们综合各方线索来看,Facebook最先打造的应该并不会是一款能够支持多种AI应用的通用云端AI芯片,而是一款主攻视频的AI芯片,不过目测这款芯片不会在近期与众人见面。

挖角谷歌,大规模扩建AI芯片团队

从2018年年中开始,Facebook就在AI芯片方面频频发声。

5月,在巴黎Viva科技峰会上,Yann LeCun首次直接披露了Facebook在AI芯片方面的具体方向:视频实时监测。

由于这两年来视频直播的盛行,越来越多用户选择使用这种方式分享自己的生活,这位Facebook的视频实时分析、实时审核过滤带来了极大的压力。

2017年的复活节时,一名男子在Facebook上直播开枪,杀人,该视频在Facebook上停留了超过2个小时后才被删除,引起了社会的极大恐慌。

传统软硬件不仅分析过滤不及时,对于越来越大量的视频压缩、审核、监管等应用,传统软硬件在计算资源和功耗控制上都达不到要求。

Yann LeCun说,Facebook之所以要自己做芯片,是因为传统资源无法满足新时代需求,传统方法已经失效,我们需要一款AI芯片,实时分析和过滤视频内容。

顺便一提的是,今年1月,Yann LeCun宣布将不再担任FAIR负责人,将由前IBM大数据集团CTO Jrme Pesenti接任。LeCun表示他将改任Facebook的首席AI科学家,专注于AI学术研究以及对FAIR进行方向性指导。

Shahriar Rabii的LinkedIn界面

目前。Facebook的AI芯片团队还处在早期的起步组建阶段。就在上周,Facebook才刚刚从谷歌挖来一员大将谷歌前芯片产品开发部门负责人Shahriar Rabii跳槽,担任Facebook副总监及芯片部分负责人一职。

Shahriar Rabii曾在谷歌工作7年,离职前职位为高级工程师主管、芯片产品开发部门负责人。他负责带队进行了大量针对消费者用户的芯片研发工作,其中最值得一提的是为谷歌亲儿子Pixel智能手机打造的Visual Core定制化AI视觉芯片,这枚芯片能够为智能手机摄像头带来机器学习AI功能。

更早之前的4月19日,Facebook的第一条AI芯片招聘信息开始在线上流传。在招聘信息当中,Facebook宣布即将为招聘一名管理者来组建端对端SoC/ASIC固件和驱动开发组织,该管理者需要针对多个垂直领域开发定制解决方案,包括人工智能和机器学习。

在同日的另一则招聘启事中,Facebook则表示正在招聘ASICFPGA设计工程师,该工程是需要拥架构和设计半定制和全定制ASIC的专业知识、能够与软件和系统工程师合作,了解当前硬件的局限性,并利用他们的专业知识打造针对多种应用的定制解决方案。

时至今日,Facebook依然有不少AI芯片相关的岗位招聘挂在LinkedIn页面上,并且在持续更新中:比如五天前跟新的一条内存芯片产品总监招聘信息、以及三天前更新的两条ASICFPGA工程师、ASIC/FPGA技术项目主管招聘信息。

从高调挖人到大规模招聘,可见Facebook在AI芯片的决心与投入。不过如果按照芯片18个月的设计制造周期来说,如果Facebook现在才开始招募团队,那么离芯片真正量产就还有至少一年时间。

结语:AI芯片的巨大想象空间

随着AI算法的进一步发展,人工智能在不同应用领域的分化也越来越明显。对于任何一个业务体量巨大的科技公司而言,专为自己业务线所打造的定制化AI芯片能够带来的成本缩减与效率提升有着巨大的想象力,任何一个科技巨头都不会轻易放过这一机会。

虽然硬件研发一直都不是Facebook的强项,但是如果瞄准的只是视频压缩与审查这一领域,那么AI芯片打造的难度将会大大小于通用云端AI芯片,可能会比预期更早与世人见面。

编辑:www.3559.com 本文来源:我们决定自己开发,扎克伯格的AI芯片野心

关键词: www.3559.com