财神彩票 > 技术支持 > 计算芯片触电人工智能?英伟达谷歌入局PK英特尔

原标题:计算芯片触电人工智能?英伟达谷歌入局PK英特尔

浏览次数:156 时间:2020-03-31

图片 1

穆尔定律指出,因特网上的通信量大约每年要翻一番。该定律是由英特尔的联合创始人Gordon Moore提出的。随着芯片的不断发展,IBM的着名研究人员Robert Dennard又提出了登纳德缩放比例定律。

雷锋网 AI 科技评论按:随着神经网络的研究和应用越来越多,人们也越发地认识到神经网络所需的计算力近乎于无底洞 。如果说高校实验室和一般爱好者在耐心等待之外办法不多的话,大公司们要面对的则是“做还是不做”的问题。

谷歌的变革是出于公司自身发展的需要。多年来,谷歌一直运营着世界上最大的计算机网络。虽然这一数据帝国涉及世界众多地区,但是对于谷歌的研发来说还是不够的。

地平线已经发生变化

硅基的计算机芯片有很多种。有的芯片可以存储数据,有的芯片可以完成玩具和电视机中的基本任务;也有的芯片可以运行计算机上的各种运算,它们大到能构造全球变暖模型的超级计算机用的芯片,小到个人计算机、服务器和手机上用的。

多年以来,计算机和类似的设备都是以CPU为核心运行的,CPU也是设备成本的大头。这一切都似乎不需要做什么改变。根据英特尔联合创始人戈登·摩尔提出的着名的摩尔定律,计算机芯片中晶体管数量每两年左右就会翻一番,几十年来计算机性能的提升就是按照摩尔定律一路稳定地发展了过来。而根据 IBM 研究员 Robert Dennard 提出的Dennard 缩放定律,芯片性能提升的同时,它们消耗的能源却几乎维持不变。所以在以往的日子里一切都还好。

然而到了2010年,让晶体管数量再翻一倍花的时间比摩尔定律预测的更长了,Dennard 缩放定律也失效了,因为芯片设计人员们遇到了来自材质物理特性本身的限制。结果就是,如果想要更高的计算能力,只靠升级CPU已经不能解决问题了,需要增加更多的计算机、消耗更多的空间和电力。

图片 2

几个月后,Dean和他的团队建立了一个升级版的口语识别服务,该服务的精确度远远高于当时谷歌所推出的服务。不过,要想实现这一功能,仅靠谷歌当前的数据中心是不够的。

给计算机装上耳朵

2016年秋天,另一组微软的研究员们做了和 Jeff Dean 的团队同样的工作,构建了一个比人类的平均水平还要高一点点的语音识别系统,也是通过神经网络。

这个项目的负责人就是黄学东,他是来自中国的语音识别专家。在介绍这项工作的论文发表之后没多久,他就约了他的好朋友、英伟达CEO黄仁勋在 Palo Alto 吃了个饭。他们开了一瓶香槟庆祝。

黄学东和他的微软同事们就是靠着数量众多的英伟达GPU训练出他们的语音识别系统的。没有继续使用英特尔的CPU。如果没有做这样的转换,他们很可能完成不了这项突破。“我们花了差不多一年的时间达到了人类的水平”,黄学东说。“如果没有新计算架构的帮助,我们可能至少要花5年。”

基于神经网络的系统可以很大程度上自己学习,所以它们进化得比传统方法设计的系统快得多。以往的系统需要工程师们写下无数行代码,仔仔细细描述系统应该如何如何做。基于神经网络的系统就不需要这样。不过神经网络的问题就是,它需要无数次的试错。要构建一个单词识别达到人类水平的系统,研究者们需要花费很多时间反复训练它,对算法做精细的调节,以及不断优化训练数据。这个过程里需要尝试成百上千算个不同的算法,每个算法又需要运行上万、上亿次。这需要庞大的计算能力,如果微软这样的公司用一般的通用芯片来做这样的计算,这个过程花的时间就太久了,芯片可能支持不了这样高的负载,用掉的电也太多了。

所以,几个互联网巨头都已经借助英伟达的GPU训练自己的神经网络。GPU本来的设计只是为了用在游戏图形渲染中的,专用的设计让它们保持了CPU近似水平的功耗,但是在神经网络训练中的计算速度要比CPU高很多。现在GPU就和CPU联手负责计算机中的运算。

英伟达借着这个机会大举扩张,向美国以及全世界的科技公司销售了大量的GPU,中国公司的购买数量尤为惊人。英伟达季度营收中数据中心业务的部分,在过去的一年中翻了3倍,超过了4亿美元。

“有点像是互联网刚兴起的那时候就走对了路”,黄仁勋在最近的一个采访中说。换句话说,科技界的局势正在快速改变,英伟达正处在这场改变的中心。

黄学东表示,这种专门化芯片让他们把原本至少需要5年才能赶上的差距,仅用1年就赶上了。

创造专用芯片

GPU是各个公司训练神经网络的重要基石,不过这也只是整个过程中的一部分。当神经网络训练完毕以后就可以开始执行任务,这时候需要的计算能力又有所不同。

比如,在训练好一个语音识别算法以后,微软会把它作为一个线上服务提供出来,然后它就可以开始识别人们讲给自己手机的指令。GPU在这种时候就没有那么高效了。所以很多公司现在都开始制造专门用于执行所学到的东西的芯片。

谷歌造了自己的专用芯片:TPU。英伟达也在造类似的芯片。微软在继续对 FPGA 芯片重新编程来让它们更适合运行神经网络,这些芯片来自英特尔收购的 Altera。

其它的公司也在后面追赶。专做智能手机用的ARM芯片的高通,以及数量客观的初创公司都在研发AI芯片,希望能在这个快速成长的市场中分一杯羹。根据科技调研公司 IDC 预计,到2021年,带有替代计算芯片的服务器将达到68亿美元的销售额,大致是整个服务器市场的十分之一。

图片 3

当今市面上的芯片,有的是用于存储信息,有的是应用于玩具和电视机,还有一些则是安装在各种计算机程序里,比如用于创建全球变暖模型的超级计算机、个人电脑或者智能手机。

英特尔、英伟达、微软、谷歌这几年为了“做”,都有哪些举动呢?纽约时报的这篇文章可以带我们看看这一变化的梗概。雷锋网 AI 科技评论编译如下,有删改。

Burger和他的团队研究了多种方案,最后决定使用现场可编程门阵列。一直以来,像Windows这样的软件使用的都是英特尔的中央处理器,并且这些软件是不能对芯片进行重新编程。

语音和语言团队负责人黄学东和计算架构组的 Doug Burger 都是微软的专用芯片开发团队成员

业界和学术界的研究者们都在想办法延长摩尔定律的生命力,探索全新的芯片材料和芯片设计方法。但是微软研究员Doug Burger 有了另一种想法:除了整个业界从1960年代以来都倚仗的CPU的稳步进化之外,为什么不试着探索专用芯片之路呢?

当时微软才刚刚开始用机器学习改进必应搜索,通过分析用户的使用方式改善搜索结果。虽然那时候的算法对硬件的要比后来风靡的神经网络低得多,但是芯片已经有点跟不上了。

Doug Burger 和他的团队做了很多不同的尝试,最终决定用了这种叫做“FPGA”的芯片,它们可以在工作过程中重新编程,适应新的任务。微软的Windows需要运行在英特尔的CPU上,但是CPU是不能重新编程的,一旦造出来,能做什么就固定了。有了FPGA,微软就可以改变芯片工作的方式。他们可以先对芯片编程,让它在特定的机器学习算法中表现非常好;然后可以重新编程,让它适合做逻辑运算。同一个芯片可以有截然不同的表现。

大概2015年前后,微软开始应用这类芯片。到现在,几乎每一台微软的数据中心新增的服务器中都带有一块FPGA芯片,它们帮助呈现必应搜索的结果,以及支持着微软的云计算服务Azure。

目前,英特尔不仅要和Nvidia、Qualcomm这样的芯片制造商竞争,还要和谷歌、微软这样的公司竞争。

Bart Sano 表示目前 TPU 也只是谷歌整个网络运营里的一小部分

Doug Burger 透露,在微软全球的服务器网络中,替代计算芯片只占了所有运营中很小的一部分。谷歌的网络软硬件研发工程副总裁Bart Sano 表示谷歌的数据中心也是类似的状况。

英特尔实验室的主管Mike Mayberry 已经向着替代计算芯片开始发起努力。可能是因为英特尔占据着数据中心市场90%的市场份额,从而也是传统芯片的最大的销售商。他说,如果对CPU做一些适当的修改,它们也可以应对新的任务而无需其它帮助。

不过这个硅片的新浪潮扩散得很快,英特尔的市场地位也越来越纠结。它一方面否认市场正在发生变化,但是又或多或少地转换着自己的业务避免掉队。2年前,英特尔花费了高达167亿美元收购了Altera,这家公司造的就是微软使用的FPGA。这是英特尔历史上最大的收购。去年,英特尔又收购了一家开发专门用于神经网络的公司 Nervana,据说又花了超过4亿美元。如今,在Nervana团队的领导下,英特尔也在开发一款专门用于神经网络训练和执行的芯片。

硅谷风投公司红杉资本的合伙人 Bill Coughran 在过去的接近10年中为谷歌的互联网基础设施出谋划策,他的工作内容基本针对的就是英特尔。他表示,“他们都有大公司病,他们需要想清楚如何踏入这片新的、成长中的领域,而且还不损害他们的传统业务。”

当英特尔内部高管们讨论摩尔定律失效的状况时,他们内部的混乱连公司外的人都看得到。在近期一次纽约时报的采访中,Nervana创始人、现在已是英特尔高管的Naveen Rao表示,英特尔其实可以让摩尔定律“再坚持几年”。从官方口径上讲,英特尔的姿态是传统芯片的改善在未来10年都还可以顺利地进行下去。

英特尔实验室的主管Mike Mayberry 则表示加一两块芯片不是什么新鲜事了,他说以前的电脑里就有单独的芯片来处理声音之类的事情。

不过现在的趋势要比以前大多了,而且从新的层面上改变着这个市场。英特尔面前的竞争对手不仅有英伟达和高通的这样的芯片制造商,还有谷歌和微软这样一直以来都相当“软”的公司。谷歌已经在设计第二代的TPU芯片了。根据谷歌的说法,今年晚些时候,任何谷歌云计算服务的客户或者开发者都可以在新的TPU芯片上面运行他们自己的软件。

虽然目前这些事情都还只发生在消费者视野之外的大型数据中心里,但是这对整个IT工业体系产生广泛的影响恐怕只是时间问题。人们最期待的是,随着新型移动芯片的到来,手持设备也可以独立完成更多、更复杂的任务,不再需要把任务交给几百公里外的数据中心,无论是智能手机无需互联网也能识别语音指令,还是无人驾驶汽车可以用现在无法企及的速度和精度识别周边的世界。

换句话说,无人驾驶汽车少不了摄像头和雷达,但是同样少不了一颗好的大脑。

数据中心发生的变化正在逐渐蔓延到科技领域的其他部分。在接下来的几年里,像谷歌、苹果和三星这些公司都将推出适用于智能手机的人工智能芯片。微软也正在为增强现实头显设计一款芯片。另外,像谷歌、丰田这些公司还在研发适用于自动驾驶汽车的芯片。

新时代的萌芽

在连续几年的缓步发展以后,计算机终于又开始进化了,换上了新样子的计算机会产生广泛而持久的影响。它们能够大大提高人工智能系统的运行速度,也许未来某一天“机器人可以统治世界”的梦想也可以成真。这种转换也会削弱芯片巨头英特尔的地位。从提供互联网服务的数据中心、手里的iPhone到VR头盔和无人机,所有科技产品的核心都是半导体芯片。随着新型芯片的时代来临,目前年产值三千亿美元的半导体工业很可能会完全变个样子。

现任谷歌母公司Alphabet董事的 John Hennessy 曾任斯坦福大学校长,1990年代他出版写过一本计算机设计的权威着作。“这是一场巨大的变革,”他说,“现在的这一套做法马上就要过时了,大家都想重新开发一套系统架构。”

现有的计算机架构也有过自己的好日子。在过去的接近五十年里,计算机的设计者们都围绕着一块单独的、全能的芯片设计整个系统。这个全能的芯片就是CPU,台式电脑、笔记本电脑里都有,往往来自英特尔;手机里有时候也有英特尔的CPU。英特尔也是全球最大的半导体生厂商之一。

更复杂的系统在计算机工程师中间变得流行起来。以前可能所有的任务都要传到英特尔CPU中完成,现在的计算机则会把任务分成许多的小块,然后把它们交给外围的专用芯片完成,这些芯片结构比CPU简单、耗电也要更少。

谷歌的大型数据中心里的变化是对全行业未来走向的一个预兆。谷歌大多数的服务器里都还有一个CPU,但是现在有数不清的定制化芯片和它们共同工作,为语音识别等人工智能应用提供运算支持。

实实在在的需求推动了谷歌的这一变化。多年以来,谷歌都有着全世界最大的计算机网络,简直像是一个数据中心和线缆组成的帝国,从加利福尼亚一直扩张到芬兰和新加坡。然而,对这位谷歌的研究员来说,这样的网络还是太小了。

图片 4

到了2010年,人们发现,通信量翻一番实际所需的时间要长于穆尔定律的预测。另外,登纳德缩放比例定律也开始不适用,因为芯片设计者发现,用来制造处理器的物理材料已经达到了极限。也就是说,如果公司想要制造出计算能力更强的芯片,不能再仅靠处理器的升级,而是需要更多的电脑、更多的空间和更多的能耗。

为了能够满足高速增长的计算需求,一些科技巨头们现在正从生物学中寻找灵感。他们正在重新思考电脑的本质,然后建造更像人类大脑的机器:神经系统里要有一个中央脑干,然后把听、说这样的具体任务交给周围的大脑皮层去做。他们希望电脑也能这样。

目前,很多公司在发展自己的神经网络时,主要就是使用G.P.U.,不过它只是这一工程的一部分。一旦神经网络就某个任务进行训练以后,它就需要专门用于执行这一任务。

最近人们希望电脑能做的事情越来越多。电脑要跟人对话,要能认出人脸,也要能认出路边的小花,再过不久还要给人类开车。所有这些人工智能都需要极高的计算能力,即便当下最先进的电脑也没法随随便便完成。

当时,微软刚刚开始改进Bing的机器学习算法,该算法可以通过分析人们使用服务的方式来改进搜索结果。尽管构建这种算法的要求比建立神经网络的要求要低,但是现有的芯片也还是很难满足它的发展需求。

Jeff Dean 和谷歌为人工智能应用开发的TPU

Jeff Dean 是谷歌最出名、最受人尊敬的工程师之一。2011年他开始带领团队探索“神经网络”的想法。这种想法的核心是让计算机算法自己学习任务,然后可以用在很多的场合中,比如识别手机用户的语音输入,又或者是照片中的人脸。只花了几个月的时间,Jeff Dean 和他的团队就开发出了一个基于神经网络语音识别系统,它识别对话的准确率要比谷歌那时已有的系统高得多。但接下来也有一个麻烦,全世界运行谷歌的安卓系统的智能手机已经超过了10亿部,假设这些手机用户们每天只用3分钟语音识别,根据 Jeff Dean 的计算,谷歌也需要把现有的数据中心容量翻一倍才能支持得了。

监控着谷歌“数据中心帝国”运行的是计算机科学家 Urs Hölzle,在一次开会的时候 Jeff Dean 就对他说:“我们需要再建立一个谷歌”,后来有参会者回忆道。但这个想法实现不了,Jeff Dean 就提出了一个替代方案:自己造一种专门运行这种人工智能的芯片。

谷歌数据中心里的这个苗头已经扩散到了其它科技巨头的身上。在未来几年里,谷歌、苹果、三星等公司都会制造带有专用的AI芯片的手机。微软设计的这种芯片打算专门用在AR头盔上,然后谷歌、丰田等一大群造自动驾驶汽车的厂商也会需要类似的芯片。

这种研发专用芯片和新计算机架构的热潮,在美国国防部研究机构 DARPA 的前项目管理人员 Gill Pratt 看来可谓是人工智能界的“寒武纪生物大爆发”,他本人现在正在丰田从事无人车的研究。他已经感觉到,把不同的计算分散给数量众多的小面积、低功耗芯片的运行方式,会让机器更像人脑,这也让能源的利用效率提高了不少。“在生物的大脑中,能源效率至关重要”,在近期的一次采访中,身处丰田在硅谷的新研究中心的 Gill 这样说。

微软:从英特尔的C.P.U.到自己的F.P.G.A.

图:谷歌平台的副总裁Bart Sano认为,专门化芯片对公司的运营仍然不太重要Burger指出,在微软的全球网络中,这类芯片仍然只是相对较小的一个部分。谷歌平台的副总裁Bart Sano也认为,专门化芯片对公司的运营并不是太重要。

两年前,英特尔花了167亿美元收购了Altera,就是上文提到过的那家为微软研发可编程芯片的公司。这也是英特尔至今为止最大的收购案。去年,英特尔又以4.08亿美元的价格收购了Nervana。现在,英特尔和Nervana的团队合作,共同研发用于训练和运作神经网络的芯片。

2016年秋季,和谷歌的工程师Jeff Dean一样,微软的另一支研究团队也建立了一个神经网络,它在进行语音识别时,准确率要比一般人高。

面对日益升级的需求,大型科技公司想要从生物学中寻找一些启示。他们正在反思计算机的本质,想要研发出一种更像人脑的机器。

计算机的新发展可能会削弱芯片界大佬英特尔的实力,并会从根本上改变年产值高达3350亿美元的半导体产业。半导体产业是当前各种高科技产品的关键所在。

图:图为谷歌最着名的工程师之一Jeff Dean。他曾经提出,公司应该研发一种专门用于人工智能的芯片。如今,这种芯片已经有了,它就是谷歌自己设计的Tensor处理单元黄学东是微软语音识别领域的领军人物。他和自己的团队在训练微软的语音识别服务时,使用的是由Nvidia制造的专门芯片,而不再像以前一样过分依赖于英特尔的芯片。

在科技快速发展的今天,我们对计算机抱有更多的期待。我们希望它能和我们进行交谈,能识别从人脸到花朵的一切事物,也希望能尽快实现自动驾驶。然而,这些人工智能的实现需要有强大的计算力的支持。要想实现各种新功能,计算机所需的计算力甚至会超过最先进的机器的计算极限。

例如,在进行语音识别算法的训练以后,微软将会把它加入在线服务,用于识别人们对智能手机发出的语音指令。

本文由财神彩票发布于技术支持,转载请注明出处:计算芯片触电人工智能?英伟达谷歌入局PK英特尔

关键词:

上一篇:存储芯片利润望创纪录 三星电子股价开盘大涨

下一篇:英特尔推出全新工具包 想将芯片装进Alexa设备